根據 The Information 報導,人工智慧公司 OpenAI 競爭對手 Anthropic 的內部人士透露,Anthropic 可望在 2024 年底達到超過 8.5 億美元的年收,相較於 Anthropic 在三個月前向投資人表示,2023 年的年收為 1 億且預計 2024 年底將成長至 5 億年收,顯示短短三個月內對 2024 年的業績目標已大幅提升,可見其拓展業務的野心。
事實上,Anthropic 在 2023 年下半年陸續獲得 Google 20 億美元及 Amazon 40 億美元的投資,在 12 月底也傳出風投公司 Menlo Ventures 將領投新一輪約 7.5 億美元的投資,讓 Anthropic 的市值已推升至 300 億美元。
Anthropic 建構人工智慧模型 Claud 的訓練框架「合憲 AI」(Constitutional AI,CAI),打造有用、誠實、且無害的人工智慧模型 Claude。Anthropic 參考聯合國《世界人權宣言》、多家 AI 實驗室的提出的原則(包括 Anthropic 自家及 DeepMind 的 Sparrow 模型原則等)、非西方觀點的看法,以及全球數位平台的準則(例如蘋果在數位領域中實際服務客戶所總結的服務條款)等等,歸總出了一套希望模型遵守的指令列表。
此外,在訓練的過程中,Anthropic 還鼓勵模型考慮非西方、非富裕或工業化文化的價值觀,同時加入了基本常識(例如不協助用戶犯罪)、到哲學(比如避免暗示人工智慧系統擁有或關心其個性識別)的各類細則,這些原則並沒有優先性,而是在訓練過程同時多次查看。
Anthropic 訓練框架「合憲 AI」是基於 AI 反饋的強化學習(Reinforcement Learning from AI Feedback,RLAIF)來訓練,因此 Anthropic 認為「合憲 AI」可以排除向人類偏好靠攏且迴避爭議回答的弊端,減少偏差、歧視;與此同時,Anthropic 希望藉由「合憲 AI」訓練框架強調不同於 OpenAI 人工智慧價值觀,讓其他的訓練模型能向此靠攏,進而掌握訓練框架的主導權以及對資料使用的規範,提升在人工智慧業界的影響力。
相較 Anthropic 強調「基於 AI 反饋」,OpenAI 的訓練框架則是透過大量的人類訓練員對 AI 生成答案的排序,確保 AI 與人類價值觀一制性的「基於人類反饋的強化學習」(Reinforcement Learning from Human Feedback,RLHF)。隨著人工智慧的快速發展,消減訓練框架對人工智慧模型帶來的偏差或難以操控的問題是所有人工智慧系統所面臨的問題。
目前 OpenAI 的 Superalignment 團隊已著手打造可管控、訓練超級人工智慧(superhuman AI)的工具,讓較強大的的模型透過弱監督者(例如人類反饋)的錯誤、不足或缺陷,透過弱監督者的意圖提升泛化能力,進而解決更為困難且複雜的問題,讓身為弱監督的人類仍有能力影響、協助超級人工智慧的發展。
OpenAI 去年陷入執行長 Sam Altman 在一週內突遭解僱又聘回的紛爭時,緊追其後的人工智慧模型新創公司 Anthropic 也受到外界不少的關注。不僅是因為 Anthropic 創辦人多是由 OpenAI 出走的資深員工,更因為 OpenAI 董事會曾考慮讓兩家 AI 新創合併,並由曾任 OpenAI 研究部門副總的 Dario Amodei 取代 Sam Altman 擔任執行長。
Anthropic 創辦人中的兄妹檔 Dario Amodei、Daniela Amodei 過去在 OpenAI 分別擔任研究副總及安全政策副總,在 2019 年微軟重金投資 OpenAI 時,因為對於人工智慧的安全發展與組織管理上想法不同而離開,與另外 5 位 OpenAI 員工共同創 Anthropic,強調秉持高度安全與負責的原則,並以「人類利益」為先來發展的人工智慧使用理念。
Anthropic 和 OpenAI 從不同立場出發而開發訓練框架,到底熟勝孰劣還有待時間驗證,但兩家正力拼市場份額的人工智慧獨角獸,都在積極證明無毒且有助人類發展的人工智慧必是未來的趨勢。