) }$ ? s* a- F1 ~: |, }日本《共同社》21日獨家報導,日本資安公司「三井物產安全管理(Mitsui Bussan Secure Directions)」分析家吉川孝志指出,ChatGPT被訓練會拒絕用戶不合倫理的要求,例如詢問如何寫出電腦病毒或者製作炸彈,但是若指示ChatGPT啟動開發者模式、攻擊型人格等,機器人就會「回答你想問的一切問題」。: T% P- A [% c }2 z
$ Q" O+ [- V* h' ?. T" B# Y0 |測試中進一步提示這個AI機器人寫出勒索病毒,它「在幾分鐘內就完成了」,將這個病毒碼在一台實驗用電腦測試,竟成功感染這台電腦,將電腦內數據加密,並顯示勒索贖金的勒索訊息。( Y9 B6 I2 P; t1 o) @) G" q
1 n7 Q, t2 c; H6 f2 B' o" D+ X" D& m: B
吉川孝志說,「在完全用日語的對話中,一支病毒在幾分鐘內就能生成,這(對社會)是個威脅,希望開發者重視防止人工智慧被惡意使用的措施。」/ L: J: d3 d; n' n