論文の概要: AGI labs need an internal audit function
- arxiv url: http://arxiv.org/abs/2305.17038v1
- Date: Fri, 26 May 2023 15:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 13:47:13.391878
- Title: AGI labs need an internal audit function
- Title(参考訳): agi labsには内部監査機能が必要だ
- Authors: Jonas Schuett
- Abstract要約: 論文は、人工知能(AGI)を構築することの明確な目標を持つ組織には、内部監査機能が必要であると主張している。
AGIラボが内部監査チームを立ち上げる方法の青写真を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper argues that organizations that have the stated goal of building
artificial general intelligence (AGI) need an internal audit function. First,
it explains what internal audit is: a specific team that performs an ongoing
assessment of an organization's risk management practices and reports directly
to the board of directors, while being organizationally independent from senior
management. Next, the paper discusses the main benefits of internal audit for
AGI labs: it can make their risk management practices more effective; ensure
that the board of directors has a more accurate view of the current level of
risk and the effectiveness of the lab's risk management practices; signal that
the lab follows best practices in corporate governance; and serve as a contact
point for whistleblowers. However, AGI labs should be aware of a number of
limitations: internal audit adds friction; there is not much empirical evidence
in support of the above-mentioned benefits; the benefits depend on the people
involved and their ability and willingness to identify ineffective risk
management practices; setting up and maintaining an internal audit team is
costly; and it should only be seen as an additional "layer of defense", not a
silver bullet against emerging risks from AI. Finally, the paper provides a
blueprint for how AGI labs could set up an internal audit team and suggests
concrete things the team would do on a day-to-day basis. These suggestions are
based on the International Standards for the Professional Practice of Internal
Auditing Standards. In light of rapid progress in AI research and development,
AGI labs need to professionalize their risk management practices. Instead of
"reinventing the wheel", they should follow existing best practices in
corporate governance. This will not be sufficient as they approach AGI, but
they should not skip this obvious first step.
- Abstract(参考訳): 論文は、人工知能(AGI)を構築することの明確な目標を持つ組織には、内部監査機能が必要であると主張している。
まず、内部監査とは何かを説明します。組織のリスク管理プラクティスを継続的に評価し、幹部管理から組織的に独立したまま、取締役会に直接報告する特定のチーム。
次に、AGI研究所の内部監査の主な利点として、リスク管理の実践をより効果的にし、取締役会が現在のリスクのレベルと研究室のリスク管理の実践の有効性をより正確に把握し、研究所が企業経営におけるベストプラクティスに従うことを示唆し、内部告発者の接触点として機能することを挙げる。
しかし、AGIラボは、いくつかの制限に気付く必要がある:内部監査は摩擦を増す; 上記の利益を支持する実証的な証拠は多くない; 利益は、関係する人々とその非効果的なリスク管理プラクティスを特定する能力と意志に依存する; 内部監査チームのセットアップと維持にはコストがかかる; 追加の「防衛の層」としてのみ見なされるべきであり、AIの新たなリスクに対する銀の弾丸ではない。
最後に、この論文は、AGIラボが内部監査チームを立ち上げる方法の青写真を提供し、チームが日々行う具体的なことを提案している。
これらの提案は、内部監査標準の専門的実践に関する国際標準に基づいている。
AI研究開発の急速な進歩を踏まえ、AGIラボはリスク管理の実践を専門化する必要がある。
車輪を再発明する”代わりに、企業ガバナンスにおける既存のベストプラクティスに従うべきです。
これはAGIに近づくほど不十分だが、この明確な第一歩をスキップするべきではない。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Responsible AI Question Bank: A Comprehensive Tool for AI Risk Assessment [17.026921603767722]
この調査では、さまざまなAIイニシアチブをサポートするために設計された包括的なフレームワークとツールであるResponsible AI (RAI) Question Bankを紹介した。
公正性、透明性、説明責任といったAI倫理原則を構造化された質問形式に統合することで、RAI質問銀行は潜在的なリスクの特定を支援する。
論文 参考訳(メタデータ) (2024-08-02T22:40:20Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Affirmative safety: An approach to risk management for high-risk AI [6.133009503054252]
高いリスクを持つAIシステムを開発または展開するエンティティは、肯定的な安全性の証拠を示すために必要であるべきだ、と私たちは主張する。
本稿では,モデル開発者が一定のリスクを規制基準値以下に維持する証拠を提示しなければならない,高度なAIのためのリスク管理手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T20:48:55Z) - Approaching Emergent Risks: An Exploratory Study into Artificial Intelligence Risk Management within Financial Organisations [0.0]
本研究は,これらの実践の探索的研究を通じて,組織におけるAIリスク管理の理解に寄与することを目的とする。
深い洞察は、英国金融セクター内の異なる組織の9人の実践者へのインタビューを通じて得られる。
本研究の成果は,リスク管理フレームワークの即興性と,プロセスレベルと組織レベルの両方において,リスク管理に対する一般的なアプローチのレベルを明らかにするものである。
論文 参考訳(メタデータ) (2024-04-08T20:28:22Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z) - Three lines of defense against risks from AI [0.0]
AIリスク管理の責任者は必ずしも明確ではない。
3つの防衛ライン(3LoD)モデルは、多くの産業でベストプラクティスと考えられている。
私は、AI企業がモデルを実装できる方法を提案する。
論文 参考訳(メタデータ) (2022-12-16T09:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。