Preparedness

OpenAI 成立專家團隊研究 AI 潛在「災難性風險」,包括核威脅!

OpenAI 宣佈成立一支名為「Preparedness」的專家團隊,研究評估人工智能(AI)模型,以防範可能導致「災難性風險」的情況。這支團隊的首席負責人是麻省理工學院可部署機器學習中心的主任 Aleksander Madry。他自今年 5 月起加入 OpenAI,擔任「Preparedness」的負責人。 「Preparedness」團隊的主要職責包括追蹤、預測和保護未來 AI 系統可能帶來的危險,涵蓋從誘騙和欺騙人類(如釣魚攻擊)到惡意代碼生成能力。OpenAI 在一篇博客文章中列出