論文の概要: Attribution-Scores and Causal Counterfactuals as Explanations in
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2303.02829v1
- Date: Mon, 6 Mar 2023 01:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:39:12.748719
- Title: Attribution-Scores and Causal Counterfactuals as Explanations in
Artificial Intelligence
- Title(参考訳): 人工知能の解説としての属性スコアと因果関係
- Authors: Leopoldo Bertossi
- Abstract要約: 私たちは、人工知能、一般に、そして、エミュレート可能なAIにおける新しい発展に対する説明の関連性を強調します。
本稿では、帰属スコアに基づくデータ管理や機械学習における説明、因果関係の領域で見られる反事実を簡潔に記述する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this expository article we highlight the relevance of explanations for
artificial intelligence, in general, and for the newer developments in {\em
explainable AI}, referring to origins and connections of and among different
approaches. We describe in simple terms, explanations in data management and
machine learning that are based on attribution-scores, and counterfactuals as
found in the area of causality. We elaborate on the importance of logical
reasoning when dealing with counterfactuals, and their use for score
computation.
- Abstract(参考訳): 本稿では、人工知能、一般に、そして、様々なアプローチの出自と関連性を参照しながら、新しい発展を論じる「説明可能なAI」に関する説明の関連性を強調します。
本稿では、帰属スコアに基づくデータ管理と機械学習における説明、因果関係の領域で見られる反事実を簡潔に記述する。
本稿では, 対物処理における論理的推論の重要性と, スコア計算への利用について詳述する。
関連論文リスト
- Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Knowledge-based XAI through CBR: There is more to explanations than
models can tell [0.0]
我々は、データ中心の人工知能エージェントが使用するデータを補完するために、ドメイン知識を利用することを提案する。
我々は、知識に基づく説明可能な人工知能を、CBR手法に沿った教師付きデータ分類問題として定式化する。
論文 参考訳(メタデータ) (2021-08-23T19:01:43Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Score-Based Explanations in Data Management and Machine Learning [0.0]
本稿では,データベースにおける問合せ応答と分類モデルによる結果について考察する。
説明されているアプローチは、主に因果的かつ反事実的な性質である。
論文 参考訳(メタデータ) (2020-07-24T23:13:27Z) - Directions for Explainable Knowledge-Enabled Systems [3.7250420821969827]
我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
論文 参考訳(メタデータ) (2020-03-17T04:34:29Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。