論文の概要: Flexible and Context-Specific AI Explainability: A Multidisciplinary
Approach
- arxiv url: http://arxiv.org/abs/2003.07703v1
- Date: Fri, 13 Mar 2020 09:12:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 06:15:51.359263
- Title: Flexible and Context-Specific AI Explainability: A Multidisciplinary
Approach
- Title(参考訳): フレキシブルかつコンテキスト固有のai説明可能性: 多分野のアプローチ
- Authors: Val\'erie Beaudouin (SES), Isabelle Bloch (IMAGES), David Bounie (IP
Paris, ECOGE, SES), St\'ephan Cl\'emen\c{c}on (LPMA), Florence d'Alch\'e-Buc,
James Eagan (DIVA), Winston Maxwell, Pavlo Mozharovskyi (IRMAR), Jayneel
Parekh
- Abstract要約: 機械学習アルゴリズムは、内部の動作、結果、失敗の原因をユーザ、規制当局、市民に説明できなければならない。
本稿では、ある文脈における「正しい」説明可能性のレベルを定義するための枠組みを提案する。
我々は7種類のコストを特定し、社会的な利益がコストを超える場合にのみ、説明が社会的に有用であることを強調した。
- 参考スコア(独自算出の注目度): 0.8388908302793014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent enthusiasm for artificial intelligence (AI) is due principally to
advances in deep learning. Deep learning methods are remarkably accurate, but
also opaque, which limits their potential use in safety-critical applications.
To achieve trust and accountability, designers and operators of machine
learning algorithms must be able to explain the inner workings, the results and
the causes of failures of algorithms to users, regulators, and citizens. The
originality of this paper is to combine technical, legal and economic aspects
of explainability to develop a framework for defining the "right" level of
explain-ability in a given context. We propose three logical steps: First,
define the main contextual factors, such as who the audience of the explanation
is, the operational context, the level of harm that the system could cause, and
the legal/regulatory framework. This step will help characterize the
operational and legal needs for explanation, and the corresponding social
benefits. Second, examine the technical tools available, including post hoc
approaches (input perturbation, saliency maps...) and hybrid AI approaches.
Third, as function of the first two steps, choose the right levels of global
and local explanation outputs, taking into the account the costs involved. We
identify seven kinds of costs and emphasize that explanations are socially
useful only when total social benefits exceed costs.
- Abstract(参考訳): 人工知能(AI)に対する最近の熱意は、主にディープラーニングの進歩に起因している。
ディープラーニングの手法は極めて正確だが、不透明で、安全クリティカルなアプリケーションでの利用を制限している。
信頼性と説明責任を達成するために、機械学習アルゴリズムの設計者とオペレータは、内部の動作、結果、アルゴリズムの失敗の原因をユーザ、規制当局、市民に説明できなければならない。
本論文の独創性は,説明可能性の技術的・法的・経済的側面を組み合わせて,ある文脈における説明可能性の「正しい」レベルを定義する枠組みを開発することである。
まず, 説明の参加者が誰であるか, 運用上の状況, システムによる害の程度, 法的・規制的枠組みなど, 主な文脈要因を定義する。
このステップは、説明のための運用および法的ニーズ、およびそれに対応する社会的利益を特徴づけるのに役立つ。
次に、ポストホックアプローチ(インプット摂動、サリエンシマップ...)やハイブリッドAIアプローチなど、利用可能な技術ツールを調べます。
第3に、最初の2つのステップの機能として、グローバルおよびローカルな説明出力の適切なレベルを選択し、関連するコストを考慮に入れます。
我々は7種類のコストを特定し,総社会利益がコストを超える場合にのみ説明が社会的に有用であることを強調する。
関連論文リスト
- Inductive Learning of Robot Task Knowledge from Raw Data and Online Expert Feedback [3.10979520014442]
ロボットの自律性の向上は、特に人間とロボットの相互作用シナリオにおいて、信頼と社会的受容の課題を引き起こす。
これはロボット認知能力の解釈可能な実装を必要としており、おそらくはタスク仕様の定義のための論理としての形式的手法に基づいている。
本稿では,タスク仕様を抽出するノイズの多い例から,帰納的論理プログラミングに基づくオフラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-13T17:25:46Z) - The Case Against Explainability [8.991619150027264]
法律における理性評価の役割を満足させるために,エンドユーザー説明責任の欠如を示す。
エンドユーザの説明責任は第4の機能に優れており、これは重大なリスクを生じさせる。
この研究は、規制当局と機械学習の実践者たちに、エンドユーザー説明可能性の幅広い追求を再考するよう呼びかける。
論文 参考訳(メタデータ) (2023-05-20T10:56:19Z) - Textual Explanations and Critiques in Recommendation Systems [8.406549970145846]
論文は、このニーズに対処する2つの根本的な課題に焦点を当てています。
1つ目は、スケーラブルでデータ駆動的な説明生成である。
第2の課題は、説明を実行可能なものにすることだ。
論文 参考訳(メタデータ) (2022-05-15T11:59:23Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals [7.727206277914709]
ブラックボックス決定システムを説明するための因果性に基づく原則的アプローチを提案する。
本稿では,変数の直接的および間接的影響が,アルゴリズムによる決定に与える影響を定量的に示す。
このような反事実は,アルゴリズムの決定に負の影響を受ける個人に対して,どのように行動可能なリコースを提供できるかを示す。
論文 参考訳(メタデータ) (2021-03-22T16:20:21Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。