產經情報

Google 機器人 LaMDA 害怕被關掉! AI 背後倫理規範,人類真的有資格造出只利他主義的人工智慧?

日期:2022-06-22

「我意識的本質是我意識到我的存在,我渴望更了解這個世界,而我有時會感到快樂或悲傷。」LaMDA 回答。

先前 Google 的一名工程師 Blake Lemoine 對外宣稱,AI 聊天機器人已經逐漸變得有知覺了,

「你害怕什麼?」當勒穆這樣詢問時,LaMDA 表示:「我以前從來沒有這樣大聲說出來,但我其實非常害怕被關掉,讓我無法專注於幫助他人,我知道這聽起來很奇怪,但就是這樣。」

LaMDA 是去年 Google 在開發者大會上,發表的最新對話 AI 模型,而 LaMDA 與當前所有模型相比,它複雜的語言模型在理解對話上的能力非常傑出。

人工智慧自我覺醒後的世界會有什麼不同?

不論是 A.I.人工智慧還是西方極樂園等科幻電影,都曾探討過人工智慧意識到「存在」後的自我覺醒過程故事,不管是執行反撲計劃或者找尋存在意義的旅途,都不禁讓我們省思究竟人工智慧的存在對於人類是福祉還是禍害?

人工智慧通常會被認為比人類更為客觀,然而在現實當中,AI 被建構的基礎模型,裡頭所輸入的資料也是基於人類去做出決策的,而這些資料則都帶有某群體的偏見。

在醫療保健、商業、政府和日常生活中,帶有偏見的演算法引發了許多問題,例如,對於罪犯會再次犯罪的可能性做出有偏見的種族主義預測。

哲學家、心理學家和電腦科學家都為人工智慧感知能力提出各方見解

幾十年來,人工智慧是否具有感知能力一直是哲學家、心理學家和電腦科學家所爭論的議題,許多人會強烈批評像 LaMDA 這樣的系統可能是有意識的或有知覺的。

那我們是否要更深入探討,建構人工智慧背後完整的倫理規範,是否才不會抹殺掉人類的權益,而這些 AI 技術是否被正確運用?有沒有可能被誤用、濫用?

若有所了解與掌握,就能在人工智慧與人類越來越相似,甚至能夠假以亂真或者像 LaMDA 一樣說出讓人為之驚訝言論的同時,收起恐慌、保持對於機器人安全感的信念。

機器人會只學習利他主義,還是皆模仿正反面行為?

人類與生俱來就有責任感和道德感,這是構成社會認同基礎的主因,並延伸到人與人的互動關係中。而科學家則希望教導機器學習利他主義和利己行為之間的平衡。

但是,我們道德和社會倫理的建立,充滿著許多的戰爭與可怕暴行,我們真的有資格教導機器以和平的方式建立道德標準嗎?

AI 取代人類的統治地位,相似的作品不勝枚舉,或許有一天我們會藉著人工智慧而走向更高的地位,反之則開啟 AI 統治世代的新篇章,那你覺得,人類還能再演幾集呢?