論文の概要: Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK
- arxiv url: http://arxiv.org/abs/2304.11218v1
- Date: Thu, 20 Apr 2023 07:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 19:42:56.223273
- Title: Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK
- Title(参考訳): AIポリシの説明可能性: EU、米国、英国におけるコミュニケーション、レポート、規則、標準の批判的レビュー
- Authors: Luca Nannini, Agathe Balayn, Adam Leon Smith
- Abstract要約: 我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
- 参考スコア(独自算出の注目度): 1.5039745292757671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public attention towards explainability of artificial intelligence (AI)
systems has been rising in recent years to offer methodologies for human
oversight. This has translated into the proliferation of research outputs, such
as from Explainable AI, to enhance transparency and control for system
debugging and monitoring, and intelligibility of system process and output for
user services. Yet, such outputs are difficult to adopt on a practical level
due to a lack of a common regulatory baseline, and the contextual nature of
explanations. Governmental policies are now attempting to tackle such exigence,
however it remains unclear to what extent published communications,
regulations, and standards adopt an informed perspective to support research,
industry, and civil interests. In this study, we perform the first thematic and
gap analysis of this plethora of policies and standards on explainability in
the EU, US, and UK. Through a rigorous survey of policy documents, we first
contribute an overview of governmental regulatory trajectories within AI
explainability and its sociotechnical impacts. We find that policies are often
informed by coarse notions and requirements for explanations. This might be due
to the willingness to conciliate explanations foremost as a risk management
tool for AI oversight, but also due to the lack of a consensus on what
constitutes a valid algorithmic explanation, and how feasible the
implementation and deployment of such explanations are across stakeholders of
an organization. Informed by AI explainability research, we conduct a gap
analysis of existing policies, leading us to formulate a set of recommendations
on how to address explainability in regulations for AI systems, especially
discussing the definition, feasibility, and usability of explanations, as well
as allocating accountability to explanation providers.
- Abstract(参考訳): 人工知能(ai)システムの説明可能性に対する大衆の関心は、人間の監視のための方法論を提供するために近年高まっている。
これは、Explainable AIのような研究成果の拡散に変換され、システムのデバッグと監視の透明性と制御が向上し、システムプロセスとユーザサービスのアウトプットの信頼性が向上した。
しかし、このようなアウトプットは、共通の規制基準や説明の文脈的性質が欠如しているため、実用的なレベルで採用することは困難である。
政府の政策は現在、そのような問題に対処しようとしているが、研究、産業、市民の利益を支えるために、どの程度のコミュニケーション、規制、標準が情報的視点で採用されているかは、まだ不明である。
本研究では,EU,米国,英国における説明可能性に関する政策と基準の多さについて,初めてテーマとギャップの分析を行った。
政策文書の厳格な調査を通じて、我々はまず、AIの説明可能性とその社会技術的影響における政府の規制の軌道の概要を概観する。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
これは、ai監視のためのリスク管理ツールとして説明を和らげる意思があるだけでなく、有効なアルゴリズムの説明を構成するものに関する合意の欠如と、そのような説明の実装と展開が組織の利害関係者間でどのように行われるかが原因かもしれない。
AI説明可能性の研究により、我々は既存のポリシーのギャップ分析を行い、AIシステムの規則における説明可能性、特に説明の定義、実現可能性、使用性について議論し、説明提供者に説明責任を割り当てる一連のレコメンデーションを策定する。
関連論文リスト
- Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing [52.110707276938]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出のための主要なモデリングパラダイムとなっている。
我々は、リモートセンシングにおいて、説明可能なAIがどのように使われているかを示す重要なトレンドを特定するために、体系的なレビューを行う。
私たちは、新しい説明可能なAIアプローチと、特定のリモートセンシング課題に対処する新たな方向性に光を当てました。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - A Comprehensive Review and Systematic Analysis of Artificial
Intelligence Regulation Policies [1.637145148171519]
我々は、異なる地理的な場所と文化的背景からAI規制の提案を包括的にレビューする。
次に、これらのAI規制提案の体系的な分析を行い、それぞれの提案が失敗する可能性を理解する。
この研究は、AI規制の混乱を解消する組織を、分断的かつコンカレントな方法で管理することを目的としている。
論文 参考訳(メタデータ) (2023-07-23T03:44:03Z) - Tackling problems, harvesting benefits -- A systematic review of the
regulatory debate around AI [0.0]
社会の構造と運営にAIのような新興で全面的な技術を統合するには、現代の政治、科学、公共の議論がある。
本稿では,人工知能(AI)の規制に関する学術的議論を分析する。
この分析は、社会的リスクと害、規制責任の問題、そして可能な適切な政策枠組みに焦点を当てている。
論文 参考訳(メタデータ) (2022-09-07T11:29:30Z) - A Survey on Methods and Metrics for the Assessment of Explainability
under the Proposed AI Act [2.294014185517203]
この研究は、そのようなメトリクスがAI法へのコンプライアンスを容易にするために持つべき要件を特定する。
我々の分析は、提案されたAI法によって支持される説明可能性を測定するためのメトリクスは、リスクに焦点をあて、モデルに依存しず、目標を意識し、理解され、アクセス可能であることを示唆している。
論文 参考訳(メタデータ) (2021-10-21T14:27:24Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。