論文の概要: Assurance of Frontier AI Built for National Security
- arxiv url: http://arxiv.org/abs/2510.08792v1
- Date: Thu, 09 Oct 2025 20:15:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.70206
- Title: Assurance of Frontier AI Built for National Security
- Title(参考訳): 国家安全保障のためのフロンティアAIの保証
- Authors: Matteo Pistillo, Charlotte Stix,
- Abstract要約: この覚書は、AIモデルの信頼性とAIモデルの統制可能性の原則を強化することを目的とした4つの推奨事項を提示している。
我々の焦点は、ミスアライメントのオープンな科学的問題とそのAIモデル行動への影響に関するものである。
ミスアライメントから生じる国家安全保障上の脅威に対処するため、私たちは、DoWとICが既存のテストと評価パイプラインとOT権限を戦略的に活用して、AIモデルの信頼性とAIモデルのガバナンス可能性の原則を将来証明することを推奨します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This memorandum presents four recommendations aimed at strengthening the principles of AI model reliability and AI model governability, as DoW, ODNI, NIST, and CAISI refine AI assurance frameworks under the AI Action Plan. Our focus concerns the open scientific problem of misalignment and its implications on AI model behavior. Specifically, misalignment and scheming capabilities can be a red flag indicating AI model insufficient reliability and governability. To address the national security threats arising from misalignment, we recommend that DoW and the IC strategically leverage existing testing and evaluation pipelines and their OT authority to future proof the principles of AI model reliability and AI model governability through a suite of scheming and control evaluations.
- Abstract(参考訳): この覚書は、AIアクションプランの下でDoW、ODNI、NIST、CAISI洗練されたAI保証フレームワークのような、AIモデルの信頼性とAIモデルのガバナンス可能性の原則を強化することを目的とした4つの推奨事項を提示している。
我々の焦点は、ミスアライメントのオープンな科学的問題とそのAIモデル行動への影響に関するものである。
具体的には、ミスアライメントとスケジュール能力は、AIモデルが信頼性と管理性に不十分であることを示す赤いフラグになる可能性がある。
ミスアライメントから生じる国家安全保障上の脅威に対処するため、我々は、DoWとICが既存のテストおよび評価パイプラインとそのOT権限を戦略的に活用して、スケジューリングと制御評価のスイートを通じて、AIモデルの信頼性とAIモデルのガバナンス可能性の原則を将来証明することを推奨する。
関連論文リスト
- Governable AI: Provable Safety Under Extreme Threat Models [31.36879992618843]
我々は、従来の内部制約から外部に強制された構造コンプライアンスに移行するGAI(Governable AI)フレームワークを提案する。
GAIフレームワークは、シンプルで信頼性が高く、完全に決定論的で、強力で、柔軟性があり、汎用的なルール執行モジュール(REM)、ガバナンスルール、AIによる妥協やサブバージョンに対するエンドツーエンドの保護を提供する、統制可能なセキュアなスーパープラットフォーム(GSSP)で構成されている。
論文 参考訳(メタデータ) (2025-08-28T04:22:59Z) - Rethinking Autonomy: Preventing Failures in AI-Driven Software Engineering [1.6766200616088744]
SAFE-AI Frameworkは、安全性、監査可能性、フィードバック、説明可能性を強調した総合的なアプローチである。
我々は、リスク評価と監視を導くために、提案的、生成的、自律的、破壊的なアクションを分類する、AI行動の新しい分類法を導入する。
この記事では、EU AI ActやカナダのAIDAといった新たな規則に沿って、ソフトウェアエンジニアリングにおける責任あるAI統合のためのロードマップを提供する。
論文 参考訳(メタデータ) (2025-08-15T22:13:54Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Decoding the Black Box: Integrating Moral Imagination with Technical AI Governance [0.0]
我々は、防衛、金融、医療、教育といった高度な領域に展開するAI技術を規制するために設計された包括的なフレームワークを開発する。
本手法では,厳密な技術的分析,定量的リスク評価,規範的評価を併用して,システム的脆弱性を暴露する。
論文 参考訳(メタデータ) (2025-03-09T03:11:32Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - A Nested Model for AI Design and Validation [0.5120567378386615]
新しい規制の必要性にもかかわらず、規制科学とAIの間にはミスマッチがある。
AI設計と検証のための5層ネストモデルが、これらの問題に対処することを目指している。
論文 参考訳(メタデータ) (2024-06-08T12:46:12Z) - Developing trustworthy AI applications with foundation models [0.8005355048487703]
AIアプリケーションの信頼性は最近の研究の対象であり、EUが最近導入したAIレギュレーションにも対処されている。
テキスト、音声、画像処理の分野における基礎モデルは、AIアプリケーションを開発するための全く新しい可能性を提供します。
このホワイトペーパーは、基礎モデルで開発されたAIアプリケーションの信頼性をどのように評価し、確実にするかを示す。
論文 参考訳(メタデータ) (2024-05-08T10:08:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。