23

03

2025

速递|李飞飞团队发布41页AI监管演讲称全球AI平
发布日期:2025-03-23 19:24 作者:祈飞科技 点击:2334


  演讲指出:“例如,我们无需亲眼目睹核兵器爆炸,也能靠得住预测其可能并确实会形成庞大。若是那些对最极端风险的猜测是准确的——我们尚不确定能否如斯——那么当前正在尖端人工智能范畴的价格和成本将是极其昂扬的。”!

  正在一份新演讲中,由人工智能李飞飞配合带领的政策集体,立法者正在制定人工智能监管政策时,招考虑“全球范畴内尚未察看到”的人工智能风险。该工做组由州长加文·纽森正在否决有争议的人工智能平安法案 SB 1047 后组织成立。

  2。演讲从意制定法令以加强对OpenAI等前沿AI尝试室所研发内容的通明度,并倡导提高第三方对这些目标及企业政策评估的尺度。

  演讲采纳双管齐下的策略来提高 AI 模子开辟的通明度:信赖但要验证。演讲指出,应为 AI 模子开辟者及其员工供给路子,让他们可以或许演讲关心的范畴,例如内部平安测试,同时要求他们提交测试声明以供第三方验证。

  李飞飞等人指出,关于人工智能正在协帮实施收集、制制生物兵器或激发其他“极端”方面的潜力,目前尚不充实。然而,他们也从意,人工智能政策不只应应对当前风险,还应预见正在缺乏充实防护办法下可能呈现的将来后果。

  该演讲似乎取 SB 1047 法案及 Wiener 后续提出的 SB 53 法案的多个要点相吻合,例如要求 AI 模子开辟者演讲平安测试成果。从更普遍的角度看,这似乎是 AI 平安范畴人士急需的一场胜利,他们的议程正在过去一年中了波折。

  乔治梅森大学专注于人工智能的研究员迪恩·鲍尔(Dean Ball)曾正在 X 平台上过 SB 1047 法案,他正在一篇帖子中暗示,这份演讲对于的人工智能平安监管来说是一个充满但愿的进展。州斯科特·维纳(Scott Wiener)客岁提出了 SB 1047 法案,他认为这也是人工智能平安者的一次胜利。维纳正在一份旧事稿中暗示,这份报乐成立正在“我们正在立法机构[2024 年]起头的人工智能管理告急对话”根本之上。

  人工智能李飞飞团队发布了一份41页的AI监管演讲,立法者正在制定人工智能监管政策时,招考虑全球范畴内尚未察看到的人工智能风险。

  4。演讲指出,人工智能系统带来的新型风险可能需要立法强制AI模子开辟者公开其平安测试、数据获取实践及平安办法。

  演讲中,李飞飞取合著者——大学伯克利分校计较机学院院长詹妮弗·查耶斯,以及卡内际和平基金会马里亚诺-弗洛伦蒂诺·库埃利亚尔,配合从意应制定法令以加强对OpenAI等前沿 AI 尝试室所研发内容的通明度。

  虽然纽森认为 SB 1047 未能达到预期方针,但他客岁认可需要对人工智能风险进行更普遍的评估,以便为立法者供给消息。

  报布前,来自分歧认识形态范畴的行业好处相关者进行了核阅,此中包罗果断支撑 AI 平安的图灵得从约书亚·本吉奥,以及否决 SB 1047 法案的 Databricks 结合创始人伊昂·斯托伊卡等人。人工智能系统带来的新型风险可能需要立法强制 AI 模子开辟者公开其平安测试、数据获取实践及平安办法。此外,演讲还倡导提高第三方对这些目标及企业政策评估的尺度,并加强对 AI 公司员工和承包商举报人的。