論文の概要: Argumentative XAI: A Survey
- arxiv url: http://arxiv.org/abs/2105.11266v1
- Date: Mon, 24 May 2021 13:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:18:49.279217
- Title: Argumentative XAI: A Survey
- Title(参考訳): 論証的XAI:調査
- Authors: Kristijonas \v{C}yras, Antonio Rago, Emanuele Albini, Pietro Baroni,
Francesca Toni
- Abstract要約: 計算論の分野からの手法を用いて構築したXAI手法の概要を概説する。
私たちは、さまざまなタイプの説明(本質的およびポストホック的)、議論に基づく説明がデプロイされるさまざまなモデル、デリバリの異なる形式、それらが使用する議論フレームワークに焦点を当てます。
- 参考スコア(独自算出の注目度): 15.294433619347082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable AI (XAI) has been investigated for decades and, together with AI
itself, has witnessed unprecedented growth in recent years. Among various
approaches to XAI, argumentative models have been advocated in both the AI and
social science literature, as their dialectical nature appears to match some
basic desirable features of the explanation activity. In this survey we
overview XAI approaches built using methods from the field of computational
argumentation, leveraging its wide array of reasoning abstractions and
explanation delivery methods. We overview the literature focusing on different
types of explanation (intrinsic and post-hoc), different models with which
argumentation-based explanations are deployed, different forms of delivery, and
different argumentation frameworks they use. We also lay out a roadmap for
future work.
- Abstract(参考訳): 説明可能なAI(XAI)は何十年にもわたって研究され、AI自体とともに、近年では前例のない成長を遂げている。
XAIに対する様々なアプローチの中で、その弁証的性格は説明活動の基本的な望ましい特徴と合致しているように見えるため、AIと社会科学の両方で議論モデルが提唱されている。
本稿では,計算論の分野の手法を用いて構築したxaiアプローチについて概説する。
本稿では,異なる種類の説明(イントリンシックとポストホック)に着目した文献,議論に基づく説明が展開される異なるモデル,異なる形態の配信,異なる議論フレームワークについて概説する。
今後の作業のロードマップも公開しています。
関連論文リスト
- An Ontology-Enabled Approach For User-Centered and Knowledge-Enabled Explanations of AI Systems [0.3480973072524161]
説明可能性に関する最近の研究は、AIモデルやモデル説明可能性の動作を説明することに重点を置いている。
この論文は、モデルとユーザ中心の説明可能性の間のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-10-23T02:03:49Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - A Review on Explainable Artificial Intelligence for Healthcare: Why,
How, and When? [0.0]
我々は、説明可能な人工知能(XAI)の体系的分析を行う。
このレビューでは、XAIの主流傾向を分析し、研究の方向性について概説する。
本稿では、医療分野におけるAIモデルの記述から信頼できるAIをどのように導き出すことができるかを説明する。
論文 参考訳(メタデータ) (2023-04-10T17:40:21Z) - Black Box Model Explanations and the Human Interpretability Expectations -- An Analysis in the Context of Homicide Prediction [0.5898893619901381]
説明可能な人工知能(XAI)に基づく戦略は、ブラックボックスモデルの結果のより良い人間の解釈可能性を促進する。
本研究は、殺人予測に関連する現実世界の分類問題に対処する。
6つの異なるXAI手法を使って説明をし、6つの異なる人間の専門家を作成した。
論文 参考訳(メタデータ) (2022-10-19T19:23:48Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - Causality-Inspired Taxonomy for Explainable Artificial Intelligence [10.241230325171143]
本稿では,xAI アプローチ開発のための環境を創出する,xAI の因果性に着想を得た新しいフレームワークを提案する。
バイオメトリック・モダリティとタスクの多様さに関する81の研究論文を分析した。
論文 参考訳(メタデータ) (2022-08-19T18:26:35Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。