論文の概要: Twin Systems for DeepCBR: A Menagerie of Deep Learning and Case-Based
Reasoning Pairings for Explanation and Data Augmentation
- arxiv url: http://arxiv.org/abs/2104.14461v1
- Date: Thu, 29 Apr 2021 16:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 16:45:44.585901
- Title: Twin Systems for DeepCBR: A Menagerie of Deep Learning and Case-Based
Reasoning Pairings for Explanation and Data Augmentation
- Title(参考訳): DeepCBRのための双対システム: 説明とデータ拡張のための深層学習とケースベース推論ペア
- Authors: Mark T Keane and Eoin M Kenny and Mohammed Temraz and Derek Greene and
Barry Smyth
- Abstract要約: 本稿では,ケースベース推論(CBR)のアイデアを,Deep Learning(DL)システムにおける説明可能なAI(XAI)問題に適用する研究について報告する。
本稿では,不透明なDLモデルと透過的なCBRモデルを組み合わせた双対システムについて述べる。
また、この研究がdlのデータ拡張問題にも応用され、これらのdeepcbrの考え方の強大さを強調する。
- 参考スコア(独自算出の注目度): 16.401267631273516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, it has been proposed that fruitful synergies may exist between Deep
Learning (DL) and Case Based Reasoning (CBR); that there are insights to be
gained by applying CBR ideas to problems in DL (what could be called DeepCBR).
In this paper, we report on a program of research that applies CBR solutions to
the problem of Explainable AI (XAI) in the DL. We describe a series of
twin-systems pairings of opaque DL models with transparent CBR models that
allow the latter to explain the former using factual, counterfactual and
semi-factual explanation strategies. This twinning shows that functional
abstractions of DL (e.g., feature weights, feature importance and decision
boundaries) can be used to drive these explanatory solutions. We also raise the
prospect that this research also applies to the problem of Data Augmentation in
DL, underscoring the fecundity of these DeepCBR ideas.
- Abstract(参考訳): 近年,Deep Learning (DL) と Case Based Reasoning (CBR) の間には実りの多い相乗効果が存在することが示唆されている。
本稿では,DLにおける説明可能なAI(XAI)問題にCBRソリューションを適用した研究プログラムについて報告する。
本報告では,不透明なdlモデルと透明なcbrモデルとの双体系のペアリングについて述べる。
このツインニングは、DLの機能的抽象化(例えば、特徴重み、特徴重要度、決定境界)が、これらの説明解を駆動するために使用できることを示している。
また、この研究がdlのデータ拡張問題にも応用され、これらのdeepcbrの考え方の強大さを強調する。
関連論文リスト
- A Case-Based Persistent Memory for a Large Language Model [0.0]
問題解決の方法論としてのケースベース推論(CBR)は、任意の適切な計算手法を用いることができる。
最近のAIのブレークスルーを可能にした基盤となる技術開発は、CBRと強力なシナジーを持っている。
論文 参考訳(メタデータ) (2023-10-13T03:56:38Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactual Explainer Framework for Deep Reinforcement Learning
Models Using Policy Distillation [14.487499365398333]
本稿では,ブラックボックスDRLによる意思決定を説明するために,新たなCF(Counterfactual)説明フレームワークを提案する。
本分析は,DRLの深い基盤となる様々な決定に対して,提案手法が妥当かつ有意義に説明できることを示す。
論文 参考訳(メタデータ) (2023-05-25T23:30:48Z) - CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering [56.592385613002584]
ゼロショットコモンセンス質問応答の課題に対処するために,概念化強化推論器(CAR)を提案する。
CARは、CommonSenseの知識を多くの高レベルなインスタンスに抽象化し、CommonSenseの知識ベースの範囲を拡大する。
CARは、既存のメソッドよりも、ゼロショットのコモンセンスシナリオに関する質問に答えることにより、より堅牢に一般化する。
論文 参考訳(メタデータ) (2023-05-24T08:21:31Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Effective Explanations for Entity Resolution Models [21.518135952436975]
本研究では,ERの深層学習における説明可能性に関する基礎的問題について検討する。
本稿では,ER問題のセマンティクスを意識したCERTA手法を提案する。
我々は,公開データセットを用いたDLモデルに基づいて,CERTAによる最先端ERソリューションの説明を実験的に評価した。
論文 参考訳(メタデータ) (2022-03-24T10:50:05Z) - Joint Answering and Explanation for Visual Commonsense Reasoning [46.44588492897933]
Visual Commonsense Reasoningは、よりハイレベルな視覚的理解を追求する試みである。
与えられた画像に対する質問応答と、回答説明のための合理的推論の2つの必須プロセスで構成されている。
本稿では,質問応答と推論プロセスの合理化を両立させるための知識蒸留強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-25T11:26:52Z) - CDT: Cascading Decision Trees for Explainable Reinforcement Learning [19.363238773001537]
カスケーディング決定木(CDT)は、より豊かな表現性を実現するために、決定経路に表現学習を適用する。
第2のコントリビューションとして、本研究では、木に基づく説明可能なモデルによる模倣学習によるブラックボックスポリシーの説明の限界を明らかにした。
論文 参考訳(メタデータ) (2020-11-15T15:25:56Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。