加州新的人工智慧安全法案旨在監管大型模型,並通過了第一個障礙

加州下議院週三通過了一項旨在降低人工智慧(AI)風險的立法。

該提案將要求公司測試他們的模型並公開披露他們的安全協議。

這是為了防止模型被操縱,例如摧毀國家電網或幫助製造化學武器,專家表示,隨著產業的快速發展,這些場景在未來是可能的。

國內首個人工智慧安全立法可能為美國對該技術的監管鋪路。

該法案於週三在加州議會獲得通過,需要在參議院進行最終投票才能提交給州長辦公桌。

加州州長加文·紐瑟姆(Gavin Newsom) 必須在9 月底之前決定是簽署該法案(本週投票的數百項法案之一)成為法律、否決該法案,還是允許其在沒有他簽署的情況下成為法律。

支持者表示,它將為美國大規模人工智慧模型製定一些急需的安全基本規則。

該法案針對的是需要超過 1 億美元(9,000 萬歐元)資料進行訓練的系統。目前的人工智慧模式還沒有達到這個門檻。

OpenAI、Google和 Meta 反對這項立法,但人工智慧公司 Anthropic 表示,這項立法的「好處可能超過其成本」。

全球 50 強人工智慧公司中有 35 家位於加州,並且可能很快就會部署生成式人工智慧工具來解決高速公路擁塞和道路安全等問題。

紐瑟姆今年夏天稍早拒絕對這項措施發表評論,他曾對人工智慧過度監管發出警告。