產經情報

AI基本法草案方向大改 全科會討論架構露玄機

日期:2024-11-27

未來規範人工智慧(AI)和生成式AI(Gen AI)的根本大法「人工智慧基本法」草案,已進入行政院審議階段,待行政院院會報告通過即可送立法院審查。

從相關資料研判,該基本法的AI風險分級框架已修改為AI風險分類,捨棄參考《歐盟人工智慧法案》(EU AI Act)的嚴格監管做法,採參美國較寬鬆的行政命令,有利美商如Open AI、Google、Meta、微軟(Microsoft)、亞馬遜(Amazon)等科技巨頭在台灣推出AI創新服務。

目前國際上大都認為政府機關應採取較靈活以原則、而非規則為基礎的AI治理方式,與歐盟採取嚴格的分級制有所不同。2024年12月中旬即將登場的「全國科學技術會議」中,勢必會討論生成式AI、Gen AI的嚴格監管與創新政策如何取得平衡。

根據全國科學技術會議分區預備會議的相關討論,《人工智慧基本法》的目的是引導台灣各機關發展與促進AI應用之「原則」,而非「規則」。數位發展部要做的是「AI風險分類框架」而非原先國科會預告的「AI風險分級框架」。

從用字來看就知道即將出爐的《人工智慧基本法》草案已有重大修正。據傳言,台灣AI政策方向大改,和美國方面的遊說與建議有關。不過美國的AI行政命令,2025年1月20日川普(Donald Trump)上任後就會失效。

目前立法院已有至少三個版本的《人工智慧基本法》草案未來將和行政院院會通過的版本一起審查。其中民進黨提出的版本主要參考美國總統拜登(Joe Biden)在2023年發布之人工智慧行政命令,提升AI決策之可驗證性及人為可控性。

該版本主張AI風險「分類」框架,與國科會修正過的版本一致。不過民進黨在立法院的席次未過半,將來行政院通過相關法案文字和立法精神未必能在民進黨立委的護航下過關。

台灣民眾黨則主張,人工智慧具有高度不可控制性及不確定性之特性,故其風險事由有隨時調整之必要,故其原則上宜由主管機關會同專家學者,針對人工智慧系統可能造成之風險,進行風險「分級」。

由高至低分為「不可接受風險」之人工智慧、「高風險」之人工智慧、「特定風險」之人工智慧及「風險極小」之人工智慧。未來如果該黨與國民黨立委聯手,以國會過半席次即可推翻行政院版和民進黨版的AI「分類」的原則性做法。

擔任國科會委員的業界代表曾在國科會委員會議上強調,《人工智慧基本法》不應斲喪產業競爭力。民眾黨認為對於是否列入為高風險人工智慧之分級內容,應該讓產業代表列席討論,並藉由人數限制,賦予其陳述意見及表決之機會。

國民黨的版本則較簡略,未來是否會轉向支持民眾黨的版本備受關注。國民黨版本只提到政府應建立與完善人工智慧安全評估與認證體系,確保人工智慧系統的安全可靠。任何人工智慧系統的開發與應用都應遵循公平、公正、透明的原則,禁止利用人工智慧進行演算法歧視。

在重要領域與關鍵環節的人工智慧應用中,應保留人工干預之可能性,確保人工智慧系統的決策可被人類審核、糾正。此外,政府應審酌人工智慧研發及利用所生之風險,建立必要之救濟、補償及保險制度。