OpenAI、機密環境でのAI展開で戦争省と合意
OpenAIは、機密環境への先進AIシステム展開に関する戦争省との合意を発表し、Anthropicを含む過去の契約よりも強固な安全ガードレールを備えていると主張した。同社は全AI企業へのアクセス拡大を求め、Anthropicのサプライチェーンリスク指定に反対した。
OpenAIは、先進AIシステムを機密環境に展開するための戦争省との合意を最終決定したと発表した。同社は特に、この展開機会を全AI企業に開放するよう要請し、厳格な安全措置の下で広範なアクセスを促進している。
OpenAIは、自社の合意がAnthropicを含む過去の機密AI展開契約よりも強固なガードレールを組み込んでいると強調した。「レッドライン」と呼ばれる主要な保護措置として、OpenAI技術の大量国内監視、自治兵器システムの指揮、高リスク自動決定(例: 重要システム)への使用を禁止している。
詳細なブログ投稿で、OpenAIはこれらのレッドラインを契約上保護する方法を説明し、国家安全保障分野で技術的安全ガードレールを削減または廃止し、使用ポリシーに依存する他のAIラボとは対照的だと指摘した。同社はこのアプローチが不適切な使用をより良く防ぐと主張している。
さらに、OpenAIはAnthropicをサプライチェーンリスクに指定すべきではないと考え、戦争省に直接この立場を伝えた。同社は、安全性を重視した展開を敏感な用途のモデルとして位置づけている。
この進展は、AI開発者と政府機関間の安全で倫理的なAIの国防・機密運用統合に関する継続的な緊張と協力関係を浮き彫りにしている。
重要ポイント
- 戦争省との機密AI展開合意
- 全AI企業への利用可能性要請
- Anthropicの合意より強固なガードレール
- レッドライン: 大量国内監視の禁止
- レッドライン: 自治兵器システム指揮の禁止
- レッドライン: 高リスク自動決定の禁止
- Anthropicのサプライチェーンリスク指定反対
- 他のラボは国家安全保障で安全ガードレールを削減
トピック
AI safetynational securitygovernment contractsOpenAIDepartment of WarAnthropic
Original Post
Loading post...