標題:
[轉貼]
Google科學家紀懷新:LLM仍在早期階段 5大問題待解
[打印本頁]
作者:
gravius
時間:
2023-8-17 00:24
標題:
Google科學家紀懷新:LLM仍在早期階段 5大問題待解
自由時報 2023/08/16 國際科技巨頭爭相投入AI軍備競賽,Google也推出AI聊天機器人Bard,而在其中扮演關鍵角色的Google傑出科學家紀懷新今日指出,Google將AI功能導入各產品線已逾10年,不過大型語言模型(LLM)仍在早期階段,有準確性、偏差性、人格化、偽陽性與惡意提示的刻意攻擊共5問題待解,Google也持續推進研究與產品功能。
; N) A- j3 P. d7 V' w; Q8 r/ Z7 F
@( g) q, X: _! J8 i+ W) a+ u
紀懷新也說,AI、大型語言模型發展對台灣是從硬體邁向軟體的機會,有望開創新局,台灣學術單位、政府機構也開始投入相關資源,包含研究台語等多語言應用。紀懷新目前在Google美國總部DeepMind機器學習研究團隊帶領大型語言模型研究與Bard開發,他也稱Google將與政府、企業、大專院校持續合作交流。
" |( P' D- Q* ^5 d M5 V, o; f
! v x9 Q2 y i2 W
Google近期持續更新Bard,7月則開始支援含繁體中文在內的40多種語言,並新增6項全新更貼近個人化需求,包含聆聽回覆、固定並重新命名對話、回應風格和語氣調整等。不過紀懷新表示,大型語言模型還在早期階段,存在5大限制,Google持續研究並尋求改善。
& {! ]! V3 V$ ` i% v, L" F
# \$ X" l ?" M$ u
紀懷新說明,大型語言模型具備準確性、偏差性、人格化、偽陽性與惡意提示的刻意攻擊,包含回應不準確、反映偏見與特定觀點、提供不合適的回應等。他並將大型語言模型可能會誤導人們其具個人意見或感受為「幻覺」,但同時因真假定義難分,使用者必須自行研究過,再判斷AI回覆是否可信。
( y6 @. A* X9 a
# @9 [- |, m3 E& ^7 S
另外紀懷新也說,Google為因應創新科技與應用發展,早在2018年就已經制定AI準則指引,包含對社會有益、避免製造或加強不公平的偏見、建立並測試安全性、對人們負責、納入隱私設計原則、堅持科學上卓越的最高標準。另外,Google需依照主要目的與用途、通用和獨特適用性、規模、Google在其中參與的角色等原則作為應用基準。
1 C9 W; R9 r$ J4 T8 E
( j0 z: p) o3 ^5 x* J0 N
[發帖際遇]:
gravius在楓林夜市賣小雪個人本子,一夜之間搶購一空,賺到遊戲幣894元。
2 A# k$ J7 J. F% K. y
歡迎光臨 風之國論壇 (http://wind.talkapple.net/)
Powered by Discuz! 6.0.0