隨著他們最新的人工智能(AI)模型的培訓開始,Openai已成立了一個新的安全委員會。
該委員會將向公司董事會就OpenAI的“關鍵和安全決策”提出建議。
Openai在博客文章中說,首席執行官Sam Altman,Bret Taylor,Adam D'Angelo和Nicole Seligman將領導委員會。
議程上的第一件事是在90天內更新公司當前的安全實踐,然後與董事會分享他們的建議。然後,採用的建議將與公眾共享。
Openai當前的安全程序說:“我們將安全視為我們必須投資並取得成功的事情。”
這一消息是在Openai解散其超級對準團隊的幾週後,該團隊本來應該減輕AI風險,例如Rogue行為,在共同主席退出公司之後。它運行不到一年。
AI首爾峰會之後,Openai於上週進行了“安全更新”。它說,除其他外,如果它越過“中等”威脅級別,它將不會發布新的AI模型。
該評估是基於公司在訓練過程中的表現而遵守模型的內部“記分卡”,但OpenAI並未共享有關其評估模型的更多特定信息。
Openai在他們的AI Seoul Summit聲明中說,他們還在為在其平台上為兒童標記有害內容的其他保護措施,並引入了一種新工具來通過Chatgpt的圖像生成器Dall-E 3識別AI生成的圖像。
5月13日,OpenAI宣布了GPT-4 Omni,這是一種最新的模型,可以“實時跨音頻,願景和文本理論”。
該公司表示,新模型是邁向“更自然的人類計算機互動”的一步,因為它可以對232毫秒的投入做出響應。
Openai的技術和政策專家Aleksander Madry和Lilian Weng以及新任命的首席科學家Jakub Pachocki也在委員會中。
安全委員會將獲得前網絡安全官員羅伯·喬伊斯(Rob Joyce)的建議。