論文の概要: Frontier AI developers need an internal audit function
- arxiv url: http://arxiv.org/abs/2305.17038v2
- Date: Sat, 05 Oct 2024 14:10:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:41:05.817090
- Title: Frontier AI developers need an internal audit function
- Title(参考訳): フロンティアのAIデベロッパーは内部監査機能を必要とする
- Authors: Jonas Schuett,
- Abstract要約: 記事は、フロンティア人工知能(AI)開発者は内部監査機能を必要としていると主張している。
AI研究開発の急速な進歩を踏まえ、フロンティアAI開発者はリスクガバナンスを強化する必要がある。
- 参考スコア(独自算出の注目度): 0.2913760942403036
- License:
- Abstract: This article argues that frontier artificial intelligence (AI) developers need an internal audit function. First, it describes the role of internal audit in corporate governance: internal audit evaluates the adequacy and effectiveness of a company's risk management, control, and governance processes. It is organizationally independent from senior management and reports directly to the board of directors, typically its audit committee. In the IIA's Three Lines Model, internal audit serves as the third line and is responsible for providing assurance to the board, while the Combined Assurance Framework highlights the need to coordinate the activities of internal and external assurance providers. Next, the article provides an overview of key governance challenges in frontier AI development: dangerous capabilities can arise unpredictably and undetected; it is difficult to prevent a deployed model from causing harm; frontier models can proliferate rapidly; it is inherently difficult to assess frontier AI risks; and frontier AI developers do not seem to follow best practices in risk governance. Finally, the article discusses how an internal audit function could address some of these challenges: internal audit could identify ineffective risk management practices; it could ensure that the board of directors has a more accurate understanding of the current level of risk and the adequacy of the developer's risk management practices; and it could serve as a contact point for whistleblowers. In light of rapid progress in AI research and development, frontier AI developers need to strengthen their risk governance. Instead of reinventing the wheel, they should follow existing best practices. While this might not be sufficient, they should not skip this obvious first step.
- Abstract(参考訳): この記事では、フロンティア人工知能(AI)開発者が内部監査機能を必要としていることを論じる。
まず、企業ガバナンスにおける内部監査の役割について説明する。内部監査は、企業のリスク管理、管理、ガバナンスプロセスの妥当性と効果を評価する。
組織的には上級管理職から独立し、取締役会、通常は監査委員会に直接報告する。
IIAの3つのラインモデルでは、内部監査が第3のラインとして機能し、取締役会への保証を提供する。
次に、記事は、フロンティアAI開発における主要なガバナンス課題の概要を提供する: 危険な能力は予測不能かつ未検出に生じ、デプロイされたモデルが害を引き起こすのを防ぐことは困難である;フロンティアモデルは急速に増殖し、フロンティアAIのリスクを評価することは本質的に困難である;フロンティアAI開発者はリスクガバナンスのベストプラクティスに従わないように見える。
最後に、本記事では、内部監査機能がこれらの課題のいくつかにどのように対処できるかについて議論する。 内部監査は、非効果的なリスク管理プラクティスを識別し、取締役会が現在のリスクのレベルと開発者のリスク管理プラクティスの適切性をより正確に理解することを保証する。
AI研究開発の急速な進歩を踏まえ、フロンティアAI開発者はリスクガバナンスを強化する必要がある。
車輪を再発明する代わりに、既存のベストプラクティスに従うべきです。
これは十分ではないかもしれないが、彼らはこの明らかな最初のステップをスキップすべきではない。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Responsible AI Question Bank: A Comprehensive Tool for AI Risk Assessment [17.026921603767722]
この調査では、さまざまなAIイニシアチブをサポートするために設計された包括的なフレームワークとツールであるResponsible AI (RAI) Question Bankを紹介した。
公正性、透明性、説明責任といったAI倫理原則を構造化された質問形式に統合することで、RAI質問銀行は潜在的なリスクの特定を支援する。
論文 参考訳(メタデータ) (2024-08-02T22:40:20Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Affirmative safety: An approach to risk management for high-risk AI [6.133009503054252]
高いリスクを持つAIシステムを開発または展開するエンティティは、肯定的な安全性の証拠を示すために必要であるべきだ、と私たちは主張する。
本稿では,モデル開発者が一定のリスクを規制基準値以下に維持する証拠を提示しなければならない,高度なAIのためのリスク管理手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T20:48:55Z) - Approaching Emergent Risks: An Exploratory Study into Artificial Intelligence Risk Management within Financial Organisations [0.0]
本研究は,これらの実践の探索的研究を通じて,組織におけるAIリスク管理の理解に寄与することを目的とする。
深い洞察は、英国金融セクター内の異なる組織の9人の実践者へのインタビューを通じて得られる。
本研究の成果は,リスク管理フレームワークの即興性と,プロセスレベルと組織レベルの両方において,リスク管理に対する一般的なアプローチのレベルを明らかにするものである。
論文 参考訳(メタデータ) (2024-04-08T20:28:22Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z) - Three lines of defense against risks from AI [0.0]
AIリスク管理の責任者は必ずしも明確ではない。
3つの防衛ライン(3LoD)モデルは、多くの産業でベストプラクティスと考えられている。
私は、AI企業がモデルを実装できる方法を提案する。
論文 参考訳(メタデータ) (2022-12-16T09:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。