,OpenAI 首席执行官 Sam Altman在访问阿拉伯联合酋长国期间警告说,AI 对人类构成了“生存风险”,并建议设立一个类似于国际原子能机构(IAEA)的国际机构来监督 AI。
Altman 说:“世界面临的挑战是我们将如何管理这些风险,并确保我们仍然可以享受这些巨大的好处,没有人想毁灭世界。”他表示,联合国核监督机构国际原子能机构正是世界如何团结起来监督核电的一个例子。
Altman 还表示:“让我们确保全球团结在一起 —— 我希望这个地方能在这方面发挥真正的作用。”他说:“我们把国际原子能机构当作一个榜样,全世界都在表示 AI 很危险,希望安装一些护栏,我认为我们可以两者兼顾。”
IT之家此前报道,今年 3 月份,包括埃隆?马斯克和史蒂夫?沃兹尼亚克在内的 1100 多人签署了一封公开信,呼吁“所有人工智能实验室立即暂停训练比 GPT-4 更强大的人工智能系统,至少 6 个月”。Altman 当时表示,这封信“忽略了我们需要暂停的技术细节”,但同时也承认 OpenAI 还没有开始训练 GPT-5,并且“暂时”不打算这样做。
Altman 周三再次反驳了一些对人工智能担忧的声音,称该公司已经通过外部审计、红队测试和安全测试等方式评估了潜在的危险,“当我们完成 GPT-4 时,我们花了超过 6 个月的时间才准备好发布它。”
声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。
深度