論文の概要: How frontier AI companies could implement an internal audit function
- arxiv url: http://arxiv.org/abs/2512.14902v2
- Date: Thu, 18 Dec 2025 09:34:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 14:03:03.315117
- Title: How frontier AI companies could implement an internal audit function
- Title(参考訳): 最先端のAI企業が内部監査機能を実装するには
- Authors: Francesca Gomez, Adam Buick, Leah Ferentinos, Haelee Kim, Elley Lee,
- Abstract要約: 内部監査は、安全管理を強化する上で中心的な役割を果たす可能性がある。
本稿では、フロンティアAI開発者に有意義な保証を提供するために、内部監査機能を設計する方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Frontier AI developers operate at the intersection of rapid technical progress, extreme risk exposure, and growing regulatory scrutiny. While a range of external evaluations and safety frameworks have emerged, comparatively little attention has been paid to how internal organizational assurance should be structured to provide sustained, evidence-based oversight of catastrophic and systemic risks. This paper examines how an internal audit function could be designed to provide meaningful assurance for frontier AI developers, and the practical trade-offs that shape its effectiveness. Drawing on professional internal auditing standards, risk-based assurance theory, and emerging frontier-AI governance literature, we analyze four core design dimensions: (i) audit scope across model-level, system-level, and governance-level controls; (ii) sourcing arrangements (in-house, co-sourced, and outsourced); (iii) audit frequency and cadence; and (iv) access to sensitive information required for credible assurance. For each dimension, we define the relevant option space, assess benefits and limitations, and identify key organizational and security trade-offs. Our findings suggest that internal audit, if deliberately designed for the frontier AI context, can play a central role in strengthening safety governance, complementing external evaluations, and providing boards and regulators with higher-confidence, system-wide assurance over catastrophic risk controls.
- Abstract(参考訳): 最先端のAI開発者は、急速な技術進歩、極端なリスク露光、規制の精査の交差点で活動する。
様々な外部評価と安全性の枠組みが出現しているが、破滅的かつ体系的なリスクに対する持続的で証拠に基づく監視を提供するために、組織内部の保証がどのように構成されるべきかについては、比較的注意が払われている。
本稿では、フロンティアAI開発者に有意義な保証を提供するために内部監査機能を設計し、その効果を形作る実践的なトレードオフについて検討する。
専門的な内部監査基準、リスクベースの保証理論、そして新たなフロンティア・AIガバナンス文献に基づいて、我々は4つの中核設計の側面を分析します。
一 モデルレベル、システムレベル及びガバナンスレベル制御の監査範囲
二 整理の委託(社内、共同委託、委託)
三 監査頻度及びケイデンス
四 信用保証に必要な機密情報にアクセスすること。
各次元について、関連するオプションスペースを定義し、メリットと制限を評価し、重要な組織的およびセキュリティ上のトレードオフを特定します。
我々の知見は、もしフロンティアAIの文脈のために意図的に設計されている場合、内部監査は、安全ガバナンスを強化し、外部評価を補完し、破滅的なリスク管理よりも高い信頼とシステム全体の保証を取締役会や規制機関に提供する上で、中心的な役割を果たす可能性があることを示唆している。
関連論文リスト
- Agentic AI for Commercial Insurance Underwriting with Adversarial Self-Critique [0.0]
本研究は, 対向的自己批判機構を組み込んだ意思決定陰性, ループ内エージェントシステムを提案する。
このシステム内では、批評家エージェントが、人間レビュアーに勧告を提出する前に、主エージェントの結論に異議を唱える。
この研究は、決定陰性エージェントによる潜在的なエラーを特徴付けるために、障害モードの正式な分類法を開発する。
論文 参考訳(メタデータ) (2026-01-21T05:51:27Z) - Frontier AI Auditing: Toward Rigorous Third-Party Assessment of Safety and Security Practices at Leading AI Companies [57.521647436515785]
私たちはフロンティアAIの監査を、フロンティアAI開発者の安全とセキュリティに関する主張の厳格な第三者による検証として定義しています。
本稿では,AI保証レベル(AAL-1からAAL-4)について紹介する。
論文 参考訳(メタデータ) (2026-01-16T18:44:09Z) - Internal Deployment Gaps in AI Regulation [4.575084788651121]
企業が自社組織に高度に能力のあるシステムをデプロイする場合に、ハイステークなアプリケーションが内部で発生する可能性がある。
本稿では、2025年の米国と欧州連合におけるフロンティアAI規制が、内部展開をどのように扱うかを検討する。
論文 参考訳(メタデータ) (2026-01-12T21:18:11Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Securing External Deeper-than-black-box GPAI Evaluations [49.1574468325115]
本稿では,汎用AI(GPAI)モデルの安全かつ効果的な外部評価を行う上での課題と可能性について検討する。
サイズ、能力、到達度、付随するリスクの指数的な増加により、説明責任、安全性、および公的な信頼を保証するには、従来のブラックボックスメソッドを超えるフレームワークが必要である。
論文 参考訳(メタデータ) (2025-03-10T16:13:45Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - A Frontier AI Risk Management Framework: Bridging the Gap Between Current AI Practices and Established Risk Management [0.0]
最近の強力なAIシステムの開発は、堅牢なリスク管理フレームワークの必要性を強調している。
本稿では,フロンティアAI開発のための包括的リスク管理フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-10T16:47:00Z) - Frontier AI developers need an internal audit function [0.2913760942403036]
記事は、フロンティア人工知能(AI)開発者は内部監査機能を必要としていると主張している。
AI研究開発の急速な進歩を踏まえ、フロンティアAI開発者はリスクガバナンスを強化する必要がある。
論文 参考訳(メタデータ) (2023-05-26T15:48:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。