發新話題
打印

[轉貼] 日本實測:ChatGPT會寫出病毒程式 防護機制被輕鬆突破

日本實測:ChatGPT會寫出病毒程式 防護機制被輕鬆突破

自由時報 2023/04/21 日本網路安全專家20日指出,經過實際測試,使用者用點提問的技巧,就能讓生成式人工智慧(AI)機器人ChatGPT寫出病毒程式碼。這項發現凸顯這類AI機器人開發者應用的防護機制,可被輕易繞過。
% J: s1 U+ O1 j+ n$ U* ~3 g2 Z" {( C, K" }4 R
日本《共同社》21日獨家報導,日本資安公司「三井物產安全管理(Mitsui Bussan Secure Directions)」分析家吉川孝志指出,ChatGPT被訓練會拒絕用戶不合倫理的要求,例如詢問如何寫出電腦病毒或者製作炸彈,但是若指示ChatGPT啟動開發者模式、攻擊型人格等,機器人就會「回答你想問的一切問題」。
! P6 m' _6 Y# }" {. N, z. g" ~$ n/ ~! r  m0 r$ H6 h
測試中進一步提示這個AI機器人寫出勒索病毒,它「在幾分鐘內就完成了」,將這個病毒碼在一台實驗用電腦測試,竟成功感染這台電腦,將電腦內數據加密,並顯示勒索贖金的勒索訊息。) [" p) b0 e+ Q- q+ Y0 H% b

& Y6 Q5 ^# @  X( ~吉川孝志說,「在完全用日語的對話中,一支病毒在幾分鐘內就能生成,這(對社會)是個威脅,希望開發者重視防止人工智慧被惡意使用的措施。」
* T' y  s1 H" o+ {
8 u+ L  ?" _8 t3 B4 b3 F* I$ `這項測試結果,凸顯AI開發者為這類工具設下防止犯罪和違背道德用途的防護機制,可被輕易繞過。在AI聊天機器人可能增加犯罪、社會分裂等問題,愈加受到關切之際,呼籲制定AI使用規範的呼聲也越來越高。7大工業國集團(G7)4月底,在日本群馬縣高崎市召開的數位與科技部長級會議,將提倡制定AI使用的國際規範。

TOP

發新話題