論文の概要: Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK
- arxiv url: http://arxiv.org/abs/2304.11218v1
- Date: Thu, 20 Apr 2023 07:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 19:42:56.223273
- Title: Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK
- Title(参考訳): AIポリシの説明可能性: EU、米国、英国におけるコミュニケーション、レポート、規則、標準の批判的レビュー
- Authors: Luca Nannini, Agathe Balayn, Adam Leon Smith
- Abstract要約: 我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
- 参考スコア(独自算出の注目度): 1.5039745292757671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public attention towards explainability of artificial intelligence (AI)
systems has been rising in recent years to offer methodologies for human
oversight. This has translated into the proliferation of research outputs, such
as from Explainable AI, to enhance transparency and control for system
debugging and monitoring, and intelligibility of system process and output for
user services. Yet, such outputs are difficult to adopt on a practical level
due to a lack of a common regulatory baseline, and the contextual nature of
explanations. Governmental policies are now attempting to tackle such exigence,
however it remains unclear to what extent published communications,
regulations, and standards adopt an informed perspective to support research,
industry, and civil interests. In this study, we perform the first thematic and
gap analysis of this plethora of policies and standards on explainability in
the EU, US, and UK. Through a rigorous survey of policy documents, we first
contribute an overview of governmental regulatory trajectories within AI
explainability and its sociotechnical impacts. We find that policies are often
informed by coarse notions and requirements for explanations. This might be due
to the willingness to conciliate explanations foremost as a risk management
tool for AI oversight, but also due to the lack of a consensus on what
constitutes a valid algorithmic explanation, and how feasible the
implementation and deployment of such explanations are across stakeholders of
an organization. Informed by AI explainability research, we conduct a gap
analysis of existing policies, leading us to formulate a set of recommendations
on how to address explainability in regulations for AI systems, especially
discussing the definition, feasibility, and usability of explanations, as well
as allocating accountability to explanation providers.
- Abstract(参考訳): 人工知能(ai)システムの説明可能性に対する大衆の関心は、人間の監視のための方法論を提供するために近年高まっている。
これは、Explainable AIのような研究成果の拡散に変換され、システムのデバッグと監視の透明性と制御が向上し、システムプロセスとユーザサービスのアウトプットの信頼性が向上した。
しかし、このようなアウトプットは、共通の規制基準や説明の文脈的性質が欠如しているため、実用的なレベルで採用することは困難である。
政府の政策は現在、そのような問題に対処しようとしているが、研究、産業、市民の利益を支えるために、どの程度のコミュニケーション、規制、標準が情報的視点で採用されているかは、まだ不明である。
本研究では,EU,米国,英国における説明可能性に関する政策と基準の多さについて,初めてテーマとギャップの分析を行った。
政策文書の厳格な調査を通じて、我々はまず、AIの説明可能性とその社会技術的影響における政府の規制の軌道の概要を概観する。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
これは、ai監視のためのリスク管理ツールとして説明を和らげる意思があるだけでなく、有効なアルゴリズムの説明を構成するものに関する合意の欠如と、そのような説明の実装と展開が組織の利害関係者間でどのように行われるかが原因かもしれない。
AI説明可能性の研究により、我々は既存のポリシーのギャップ分析を行い、AIシステムの規則における説明可能性、特に説明の定義、実現可能性、使用性について議論し、説明提供者に説明責任を割り当てる一連のレコメンデーションを策定する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Artificial Intelligence Act: critical overview [0.0]
この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
テキストは、全体的なフレームワークが適切かつバランスが取れたとしても、アプローチは非常に複雑であり、それ自体の目的を損なうリスクがある、と結論付けている。
論文 参考訳(メタデータ) (2024-08-30T21:38:02Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - 'Team-in-the-loop': Ostrom's IAD framework 'rules in use' to map and measure contextual impacts of AI [0.0]
この記事では、OstromのInstitutional Analysis and Development Framework(IAD)の'rules in use'が、AIのコンテキスト分析アプローチとしてどのように開発できるかを考察する。
論文 参考訳(メタデータ) (2023-03-24T14:01:00Z) - Tackling problems, harvesting benefits -- A systematic review of the
regulatory debate around AI [0.0]
社会の構造と運営にAIのような新興で全面的な技術を統合するには、現代の政治、科学、公共の議論がある。
本稿では,人工知能(AI)の規制に関する学術的議論を分析する。
この分析は、社会的リスクと害、規制責任の問題、そして可能な適切な政策枠組みに焦点を当てている。
論文 参考訳(メタデータ) (2022-09-07T11:29:30Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。