論文の概要: An Overview of the Risk-based Model of AI Governance
- arxiv url: http://arxiv.org/abs/2507.15299v1
- Date: Mon, 21 Jul 2025 06:56:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.295038
- Title: An Overview of the Risk-based Model of AI Governance
- Title(参考訳): AIガバナンスのリスクベースモデルの概要
- Authors: Veve Fry,
- Abstract要約: セクションでは、AIガバナンスに対するリスクベースのアプローチに対するいくつかの批判が提案されている。
リスクの概念は、その固有の規範が、その利益が重要となる支配的かつ有害な物語を再現するので、問題であると主張する。
本稿では、リスクベースのAIガバナンスを改善する上で、既存のリスクガバナンス奨学金が貴重な洞察を得られることを示唆して結論付ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper provides an overview and critique of the risk based model of artificial intelligence (AI) governance that has become a popular approach to AI regulation across multiple jurisdictions. The 'AI Policy Landscape in Europe, North America and Australia' section summarises the existing AI policy efforts across these jurisdictions, with a focus of the EU AI Act and the Australian Department of Industry, Science and Regulation's (DISR) safe and responsible AI consultation. The 'Analysis' section of this paper proposes several criticisms of the risk based approach to AI governance, arguing that the construction and calculation of risks that they use reproduces existing inequalities. Drawing on the work of Julia Black, it argues that risk and harm should be distinguished clearly and that the notion of risk is problematic as its inherent normativity reproduces dominant and harmful narratives about whose interests matter, and risk categorizations should be subject to deep scrutiny. This paper concludes with the suggestion that existing risk governance scholarship can provide valuable insights toward the improvement of the risk based AI governance, and that the use of multiple regulatory implements and responsive risk regulation should be considered in the continuing development of the model.
- Abstract(参考訳): 本稿では,AIガバナンスのリスクベースモデルの概要と批判について述べる。
欧州、北米、オーストラリアにおけるAI政策ランドスケープ」という節は、EUのAI法とオーストラリア産業科学規制省(DISR)の安全かつ責任あるAIコンサルティングに焦点をあてて、これらの管轄区域における既存のAI政策の取り組みを要約している。
本稿では,AIガバナンスに対するリスクベースアプローチに対するいくつかの批判を提起し,それらが使用するリスクの構成と計算が,既存の不平等を再現すると主張している。
ジュリア・ブラックの著作に基づき、リスクと危害は明確に区別されるべきであり、その本質的な規範が利害に関する支配的で有害な物語を再現するので、リスクの概念は問題であり、リスクの分類は深い精査の対象となるべきだと論じている。
本稿では、既存のリスクガバナンス奨学金が、リスクベースのAIガバナンスの改善に価値ある洞察を与え、モデルの継続的な発展において、複数の規制手法とレスポンシブなリスクレギュレーションを考慮すべきである、という提案で締めくくります。
関連論文リスト
- The California Report on Frontier AI Policy [110.35302787349856]
フロンティアAIの継続的な進歩は、科学的発見、経済生産性、より広範な社会福祉における大きな進歩の可能性を秘めている。
グローバルAIイノベーションの中心として、カリフォルニアには、フロンティアAIの開発を継続するユニークな機会がある。
報告書は、カリフォルニアがフロンティアAIの使用、評価、ガバナンスにどのようにアプローチするかを知らせる政策原則を導出する。
論文 参考訳(メタデータ) (2025-06-17T23:33:21Z) - Between Innovation and Oversight: A Cross-Regional Study of AI Risk Management Frameworks in the EU, U.S., UK, and China [0.0]
本稿では、欧州連合、米国、英国(イギリス)、中国におけるAIリスク管理戦略の比較分析を行う。
この結果は、EUが透明性と適合性の評価を優先する構造化されたリスクベースの枠組みを実装していることを示している。
米国は、イノベーションを促進するが、断片化された執行につながる可能性のある、分権化されたセクター固有の規制を使用している。
論文 参考訳(メタデータ) (2025-02-25T18:52:17Z) - Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Risk Sources and Risk Management Measures in Support of Standards for General-Purpose AI Systems [2.3266896180922187]
我々は、汎用AIシステムのためのリスクソースとリスク管理対策の広範なカタログをコンパイルする。
この作業には、モデル開発、トレーニング、デプロイメントステージにわたる技術的、運用的、社会的リスクの特定が含まれる。
このカタログは、AIガバナンスと標準における利害関係者による直接的な使用を容易にするために、パブリックドメインライセンス下でリリースされている。
論文 参考訳(メタデータ) (2024-10-30T21:32:56Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [7.35411010153049]
リスクを減らす最善の方法は、包括的なAIライフサイクルガバナンスを実装することです。
リスクは技術コミュニティのメトリクスを使って定量化できます。
本稿では,このようなアプローチの機会,課題,潜在的影響に焦点をあてて,これらの課題について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。