論文の概要: A Survey on Methods and Metrics for the Assessment of Explainability
under the Proposed AI Act
- arxiv url: http://arxiv.org/abs/2110.11168v1
- Date: Thu, 21 Oct 2021 14:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:29:36.105560
- Title: A Survey on Methods and Metrics for the Assessment of Explainability
under the Proposed AI Act
- Title(参考訳): 提案するai法に基づく説明可能性評価のための方法と指標に関する調査
- Authors: Francesco Sovrano, Salvatore Sapienza, Monica Palmirani, Fabio Vitali
- Abstract要約: この研究は、そのようなメトリクスがAI法へのコンプライアンスを容易にするために持つべき要件を特定する。
我々の分析は、提案されたAI法によって支持される説明可能性を測定するためのメトリクスは、リスクに焦点をあて、モデルに依存しず、目標を意識し、理解され、アクセス可能であることを示唆している。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study discusses the interplay between metrics used to measure the
explainability of the AI systems and the proposed EU Artificial Intelligence
Act. A standardisation process is ongoing: several entities (e.g. ISO) and
scholars are discussing how to design systems that are compliant with the
forthcoming Act and explainability metrics play a significant role. This study
identifies the requirements that such a metric should possess to ease
compliance with the AI Act. It does so according to an interdisciplinary
approach, i.e. by departing from the philosophical concept of explainability
and discussing some metrics proposed by scholars and standardisation entities
through the lenses of the explainability obligations set by the proposed AI
Act. Our analysis proposes that metrics to measure the kind of explainability
endorsed by the proposed AI Act shall be risk-focused, model-agnostic,
goal-aware, intelligible & accessible. This is why we discuss the extent to
which these requirements are met by the metrics currently under discussion.
- Abstract(参考訳): 本研究では、AIシステムの説明可能性を測定するために使用されるメトリクスと、提案するEU人工知能法との間の相互作用について論じる。
標準化プロセスが進行中で、いくつかのエンティティ(isoなど)や学者が、今後の法律に準拠したシステムの設計方法や説明可能性メトリクスが重要な役割を果たしている。
この研究は、そのようなメトリクスがAI法へのコンプライアンスを容易にするために持つべき要件を特定する。
これは学際的なアプローチ、すなわち説明可能性という哲学的な概念から離れ、提案されたai法によって設定された説明可能性義務のレンズを通して学者や標準化団体によって提案されたいくつかの指標について議論することで行われる。
提案するai法が支持する説明可能性を測定する指標は,リスク重視,モデル非依存,目標認識,知性,アクセス性を有するものとする。
これが、現在議論中のメトリクスによって、これらの要件がどの程度満たされているかを議論する理由です。
関連論文リスト
- Evaluating Generative AI Systems is a Social Science Measurement Challenge [78.35388859345056]
我々は,GenAIシステムの能力,影響,機会,リスクに関連する概念を測定するための枠組みを提案する。
このフレームワークは、背景概念、体系化された概念、測定器、インスタンスレベルの測定そのものの4つのレベルを区別する。
論文 参考訳(メタデータ) (2024-11-17T02:35:30Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z) - A multidomain relational framework to guide institutional AI research
and adoption [0.0]
我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T16:33:01Z) - An Objective Metric for Explainable AI: How and Why to Estimate the
Degree of Explainability [3.04585143845864]
本稿では, 客観的手法を用いて, 正しい情報のeX説明可能性の度合いを測定するための, モデルに依存しない新しい指標を提案する。
私たちは、医療とファイナンスのための2つの現実的なAIベースのシステムについて、いくつかの実験とユーザースタディを設計しました。
論文 参考訳(メタデータ) (2021-09-11T17:44:13Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。