FLI声明:ホワイトハウスAI国家安全保障覚書について

FLIの35名のスタッフはホワイトハウスの新しいAIメモを「重要な一歩」と呼ぶ一方で、その競争的性質と実効性の欠如を批判している。安全保障擁護派はメモではなく、義務化を求めている。

White House seal overlayed on AI circuit board with FLI statement quote

Key Takeaways

  • ホワイトハウスのNSMは政府でのAI安全を推進しているが、自発的なままであり、FLIの慎重な賞賛を引き出している。
  • FLIは米国のみの競争に対して警告し、グローバルな安定性のために中国などのライバルとの協力を推し進めている。
  • メモはAI安全研究所を強化しているが、選挙リスクと実際の脅威に対抗するために義務付けが必要である。

FLIは米国とヨーロッパ全体に35名の常勤スタッフを擁し、2014年以来AI関連のリスクに取り組んでいる。先週、彼らはホワイトハウスの国家安全保障覚書(NSM)をAIについて詳しく検討した。その評価は?控えめな賛辞に警告が伴うものだった。

見てみよう。このメモは国家安全保障機関に対し、AI調達の改善、外国の干渉からインフラの保護、リスクのあるモデルの審査、および政府人材の強化を指示している。商務省のAI安全研究所をトップの評価機関として位置付けている。紙の上では良さそうだ。しかし、FLIのハムザ・チョードリーはシャンパンを開けるつもりはない。

「今週発表された国家安全保障覚書は、特に防衛、国家安全保障、および戦争兵器の分野において、制約のないAI開発に内在するリスクを認識し対処するための重要な一歩です。

「このメモには、実行された場合、米国と世界をAIの脅威と不確実性から守るであろう多くの賞賛に値する行動、取り組み、および提言が含まれています。これには米国商務省のAI安全研究所の強化と主要な政府機関部門全体のAI専門知識の拡充が含まれます。」

これが前向きな部分だ。しかし、チョードリーは現実的だ。

ホワイトハウスAIメモ:安全網か、それとも安心毛布か?

ここが問題だ。このNSMは緊急性に満ちており、技術政策の流れを変える可能性のある選挙の直前のタイミングで発表された。機関には「国民の安全保障と安全性に対するリスク」をもたらすモデルを評価するよう促されている。十分にあいまいだろうか?確かにそうだ。全米AI研究資源に学者と市民社会と成果を共有するよう促している。協調的に見える。ただし、FLIは象に気付いている。つまり「純粋に競争的なアプローチ」とAIの側面だ。

そして。彼らは間違っていない。このシナリオを想像してみよう:米国対中国のAI軍拡競争、毎月致命的になっていくモデル。メモは安全チェックを承認しているが、自発的な配慮で止まっている。罰金もない。禁止もない。ただガイダンスだけだ。FLIは強く反論している。競合他社と協力するか、安定した統治をあきらめるか、彼らは言う。

「緊密な同盟国およびパートナーに加えて、戦略的競合相手との積極的な協力は、責任あるAI開発を保証し、米国の国家安全保障利益を促進するために重要です。協力がなければ、安全で安全な信頼できるAI開発と使用を促進する国際的なAIガバナンスの安定した責任あるフレームワークを確立することがより困難になります。」

キリッとした。そして真実だ。歴史はそれを叫んでいる。マンハッタン計画の秘密は核兵器を生み出したが、冷戦の危機一髪の状況は軍備管理交渉を強制した。AIも変わらない。今ライバルを無視すれば、ブレーキのない、より知的な爆弾を製造しているのだ。

NSMはAIの国家安全保障の悪夢を実際に解決するのか?

短い答え:いいえ。まだです。

さらに深掘りしてみよう。調達ルール?機関は「安全で信頼できる」AIを優先する必要がある。素晴らしい。ただし、大手テック企業のベンダーが支配しており、彼ら自身のリスクの軽視を持っていることに気付くまでは。「外国の干渉」からのインフラ保護?ハッカーはメモを笑い飛ばす。モデル評価?AI安全研究所は注目を集めているが、商務省の下で?それはDARPA強硬派ではなく、通商担当者だ。才能開発?確かに、しかし政府のAI人材流出は有名だ。民間部門はより良く支払う。

FLIはそれを釘付けにしている。これは「ただの始まり」だ。彼らは「安全なAIのための強制的要件」を要求している。自発的なコミットメント?その映画は見たことがある。企業は首を振ってから、急速に前進する。OpenAIの安全性の誓いを覚えていますか?今、彼らは最小限の監視でAGIを追求している。

私の辛辣な見方で、FLIの丁寧な散文から欠落していること:このメモは政権のためのPRシールドである。選挙の熱の中で発表されて、それはバイデンにAIリーダーシップを吹聴させてくれる防衛タカ派や シリコンバレーの献金者を動揺させることなく。大胆な予測。選挙後、議会が義務付けない限り、それはほこりを集めるだろう。トランプ2.0?規制廃止の街。ハリス?段階的な調整。どちらにしても、国際的な効力がなければ、それは演劇だ。

しかし待って。ユニークな角度だ。1972年の生物兵器禁止条約を思い返してみよう。米国は最初に一方的なモラトリアムを推し進め、その後ソビエト連邦をテーブルに引きずり込んだ。AIはそのプレイブックが必要だ。壁だけではなく、透明性を持ってリードする。FLIの協力の呼びかけはそれを完璧に反映しているが、ワシントンはあまりにも忙しく剣戟をしている。

FLIがAIガバナンスで声を大にしている理由

FLIは周辺的な組織ではない。最古のAI智米槽。35人の専門家。彼らは言説を形作ってきた。巨大モデルの一時停止からUN条約まで。チョードリーの声明?計算された一撃。橋を築くための賛辞、行動を促すための注意。

しかし懐疑論が支配している。メモはAI安全研究所を強化する。良い。しかし、主要な「連絡先」として?それはボトルネックだ。評価が国防総省の必要性と衝突したらどうなるか?兵器の自律性がここでの機械の幽霊だ。NSMは「防衛」と「戦争兵器」のリスクにうなずくが、致命的な自律システムに対する赤い線はない。AI脳を持つキラードローン?まだメニューに載っている。

そして選挙のキック。

「このメモの発表は国家安全保障およびそれ以上でのAI展開の保護に進展を表すが、それは緊急の行動が必要な始まりに過ぎません。政府が自発的なコミットメントから安全なAIのための強制的要件へ移行することが重要です。そしてメモの処方箋と提言が政策に変わることが不可欠です。今後の選挙の結果がどうであれ。」

ドライユーモアアラート:「選挙がどうであれ。」はい、確かに。政治は政治だ。

リスクを広げる。セキュリティのチェックされていないAI?ハッキングされたモデルが核コードを漏らす、または敵対的な攻撃が監視をサボタージュに変えることを考えてみよう。外国の干渉?中国は数十億を注ぎ込んでいる。米国はそれを単独でやることができない。FLIは正しい:同盟国プラス競合相手、またはバスト。

AIに関する中国との協力は幻想か?

そうだ、それは夢のように感じる。しかし必要である。

米国と中国のAI会談は2018年の貿易戦争後に失敗した。今?輸出管理はチップを息詰まらせ、偏執狂を燃料にしている。メモはこれを回避し、内向きに焦点を当てている。FLIは異なる見方をしている。安定したフレームワークは対話を要求する。歴史的な平行線:オゾン層。敵はCFCで協力した。AIの絶滅リスクはそれをはるかに上回る。

スピンを批評する。ホワイトハウスはNSMを大胆なリーダーシップとしてフレーム化している。FLIはそれをはがす。賞賛に値する、確かに、しかし不完全だ。企業のハイプの平行線。NvidiaはAIセーフティを吹聴しながら数十億を搾り取っている。政府はそれを鏡のように映す。

より深く。開発者への含意?連邦契約でのより多くの赤いテープ。モデルメーカー?安全監査が差し迫っている。公式?より安全なインフラストラクチャ、たぶん。しかし義務がなければ、それはウィンドウドレッシングだ。

少し迷う。FLIのヨーロッパ部門は筋肉を追加し、EU AI法の相乗効果を押し進めている。米国メモは調和する可能性があるが、競争条項はそれを殺す。

結論:進展。かろうじて。FLIの辛辣なプロ?法律、手紙ではなく、推し続けるために。


🧬 関連する洞察

よくある質問

ホワイトハウスの国家安全保障メモとAIは何ですか?

これはAIの使用、調達、セキュリティ、リスク評価、および才能に関する米国機関向けのガイダンスであり、AI安全研究所をリード評価機関として承認しています。

NSMはAI開発をより安全にしますか?

部分的には。評価と専門知識を促進しますが、FLIはそれが自発的であり、国際協力を欠いており、強制的なルールを必要としていると述べています。

2024年の選挙はこのAIメモを殺すでしょうか?

FLIはそうでないことを望み、関係なく政策変換を促している。しかし政治はそれを急速に脱線させる可能性があります。

Priya Sundaram
Written by

Hardware and infrastructure reporter. Tracks GPU wars, chip design, and the compute economy.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Future of Life Institute