產經情報

AI 掀科技倫理議題,演算法偏見恐衝擊言論自由

日期:2023-02-01

聊天機器人 ChatGPT 運用生成式人工智慧(Generative AI),模仿真人回應使用者話語,引發廣泛討論。不過 AI 變得太聰明,也掀起科技倫理議題,不僅要注意 AI 搜集的個人資料如何被運用,更要當心演算法偏見可能對言論自由帶來衝擊。

台灣人工智慧實驗室(Taiwan AI Labs)創辦人杜奕瑾大二時成立BBS社群平台批踢踢(PTT),是網路鄉民口中的「創世神」,對網路發展有深入及獨到見解,目前帶領約200名工程師,聚焦開放型AI研究。

他接受《中央社》專訪時表示,人工智慧演算法可能因為資料搜集方式、標註人員等因素而產生偏見,未來許多決策可能由人工智慧控制,個人資料如何被搜集與分析,都值得探討;聊天機器人讀完網路資訊後告訴用戶結果,卻沒有人為結果負責,也涉及倫理問題。以下為專訪內容。

問:科技倫理是什麼?為何重要?

答:科技倫理有很多層面,台灣人工智慧實驗室於2017年成立,是全世界第一個強調演算法透明性的團隊。2017年很多國家就知道AI是未來主流,進行很多探討,例如中國採取big government模式,由政府擁有所有資料;美國採取big tech模式,由Google、臉書等科技巨擘搜集資料,打造各種智慧醫療與智慧交通應用。

我以前在微軟負責AI研究,開始思考人工智慧的未來。如果純粹就利益考量,應該採取美國big tech模式;如果從國家角度考量,應該用中國big government模式。但是要思考一個問題,人工智慧很可能變成super power(超級強權),怎麼定義相關倫理與規範是很重要的事情。

台灣人工智慧實驗室成立後,希望運用台灣場域和人才,建立可信任的人工智慧研究。有別於過去大家認為資料最多、演算法準確度最高、運算能力最強就贏了,台灣人工智慧實驗室強調「以人為本」、保障人權隱私,是大家可以信任的人工智慧演算法。


詳細內文請參考網址