論文の概要: The LLM Mirage: Economic Interests and the Subversion of Weaponization Controls
- arxiv url: http://arxiv.org/abs/2601.05307v1
- Date: Thu, 08 Jan 2026 18:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.746377
- Title: The LLM Mirage: Economic Interests and the Subversion of Weaponization Controls
- Title(参考訳): LLMミラージュ:経済的な関心とウェポン化制御の転換
- Authors: Ritwik Gupta, Andrew W. Reddie,
- Abstract要約: 米国のAIセキュリティポリシは、フロンティア言語モデルのトレーニングに使用される計算に比例して、国家安全保障のリスクがスケールするという、$textitLLM Mirage$によってますます形作られています。
我々は、効果と国際人道法に基づくAI兵器の意図と能力の定義を提案する。
- 参考スコア(独自算出の注目度): 4.964604109409563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: U.S. AI security policy is increasingly shaped by an $\textit{LLM Mirage}$, the belief that national security risks scale in proportion to the compute used to train frontier language models. That premise fails in two ways. It miscalibrates strategy because adversaries can obtain weaponizable capabilities with task-specific systems that use specialized data, algorithmic efficiency, and widely available hardware, while compute controls harden only a high-end perimeter. It also destabilizes regulation because, absent a settled definition of "AI weaponization," compute thresholds are easily renegotiated as domestic priorities shift, turning security policy into a proxy contest over industrial competitiveness. We analyze how the LLM Mirage took hold, propose an intent-and-capability definition of AI weaponization grounded in effects and international humanitarian law, and outline measurement infrastructure based on live benchmarks across the full AI Triad (data, algorithms, compute) for weaponization-relevant capabilities.
- Abstract(参考訳): 米国のAIセキュリティポリシーは、フロンティア言語モデルのトレーニングに使用される計算に比例して、国家安全保障のリスクがスケールするという、$\textit{LLM Mirage}$によってますます形作られています。
その前提は2つの点で失敗する。
敵は特殊データ、アルゴリズムの効率、および広く利用可能なハードウェアを使用するタスク固有のシステムで兵器化可能な能力を得ることができ、一方、計算制御はハイエンドな周辺機器のみを強固にする。
また、「AI兵器化」の定義が定まっていないため、国内優先のシフトとして計算しきい値が容易に再交渉され、安全保障政策を産業競争性に対する代理競争に転換する。
我々は、LLMミラージがどのようにしたのかを分析し、効果と国際人道法に基づくAI兵器の意図と能力の定義を提案し、兵器化関連機能のための完全なAIトライアド(データ、アルゴリズム、計算)にわたるライブベンチマークに基づいて測定インフラを概説する。
関連論文リスト
- MAIF: Enforcing AI Trust and Provenance with an Artifact-Centric Agentic Paradigm [0.5495755145898128]
現在のAIシステムは、監査証跡、証明追跡、EU AI Actのような新たな規則で要求される説明可能性に欠ける不透明なデータ構造で運用されている。
動作は一時的なタスクではなく、永続的で検証可能なデータアーティファクトによって駆動される、アーティファクト中心のAIエージェントパラダイムを提案する。
プロダクション対応実装では、超高速ストリーミング(2,720.7MB/s)、最適化されたビデオ処理(1,342MB/s)、エンタープライズレベルのセキュリティが示されている。
論文 参考訳(メタデータ) (2025-11-19T04:10:32Z) - Governable AI: Provable Safety Under Extreme Threat Models [31.36879992618843]
我々は、従来の内部制約から外部に強制された構造コンプライアンスに移行するGAI(Governable AI)フレームワークを提案する。
GAIフレームワークは、シンプルで信頼性が高く、完全に決定論的で、強力で、柔軟性があり、汎用的なルール執行モジュール(REM)、ガバナンスルール、AIによる妥協やサブバージョンに対するエンドツーエンドの保護を提供する、統制可能なセキュアなスーパープラットフォーム(GSSP)で構成されている。
論文 参考訳(メタデータ) (2025-08-28T04:22:59Z) - Rethinking Technological Readiness in the Era of AI Uncertainty [0.0]
私たちは、現在の技術準備性評価は、重要なAI固有の要因を捉えることができないと論じています。
軍事システムにおけるAIコンポーネントの成熟度と信頼性を評価するための新しいAI Readiness Frameworkを提案する。
論文 参考訳(メタデータ) (2025-04-15T14:09:50Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。