論文の概要: Twin Systems for DeepCBR: A Menagerie of Deep Learning and Case-Based
Reasoning Pairings for Explanation and Data Augmentation
- arxiv url: http://arxiv.org/abs/2104.14461v1
- Date: Thu, 29 Apr 2021 16:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 16:45:44.585901
- Title: Twin Systems for DeepCBR: A Menagerie of Deep Learning and Case-Based
Reasoning Pairings for Explanation and Data Augmentation
- Title(参考訳): DeepCBRのための双対システム: 説明とデータ拡張のための深層学習とケースベース推論ペア
- Authors: Mark T Keane and Eoin M Kenny and Mohammed Temraz and Derek Greene and
Barry Smyth
- Abstract要約: 本稿では,ケースベース推論(CBR)のアイデアを,Deep Learning(DL)システムにおける説明可能なAI(XAI)問題に適用する研究について報告する。
本稿では,不透明なDLモデルと透過的なCBRモデルを組み合わせた双対システムについて述べる。
また、この研究がdlのデータ拡張問題にも応用され、これらのdeepcbrの考え方の強大さを強調する。
- 参考スコア(独自算出の注目度): 16.401267631273516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, it has been proposed that fruitful synergies may exist between Deep
Learning (DL) and Case Based Reasoning (CBR); that there are insights to be
gained by applying CBR ideas to problems in DL (what could be called DeepCBR).
In this paper, we report on a program of research that applies CBR solutions to
the problem of Explainable AI (XAI) in the DL. We describe a series of
twin-systems pairings of opaque DL models with transparent CBR models that
allow the latter to explain the former using factual, counterfactual and
semi-factual explanation strategies. This twinning shows that functional
abstractions of DL (e.g., feature weights, feature importance and decision
boundaries) can be used to drive these explanatory solutions. We also raise the
prospect that this research also applies to the problem of Data Augmentation in
DL, underscoring the fecundity of these DeepCBR ideas.
- Abstract(参考訳): 近年,Deep Learning (DL) と Case Based Reasoning (CBR) の間には実りの多い相乗効果が存在することが示唆されている。
本稿では,DLにおける説明可能なAI(XAI)問題にCBRソリューションを適用した研究プログラムについて報告する。
本報告では,不透明なdlモデルと透明なcbrモデルとの双体系のペアリングについて述べる。
このツインニングは、DLの機能的抽象化(例えば、特徴重み、特徴重要度、決定境界)が、これらの説明解を駆動するために使用できることを示している。
また、この研究がdlのデータ拡張問題にも応用され、これらのdeepcbrの考え方の強大さを強調する。
関連論文リスト
- Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - New Rules for Causal Identification with Background Knowledge [59.733125324672656]
オープンな問題に対する新たな視点を提供するBKを導入するための2つの新しいルールを提案する。
これらのルールは、観測データによる因果効果のセットを決定するなど、典型的な因果関係のタスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-07-21T20:21:21Z) - Constructive Interpolation and Concept-Based Beth Definability for Description Logics via Sequents [0.0]
本稿では,概念に基づくBeth Definability Properties (CBP) を確立するための構築的手法を提案する。
高い表現力を持つDL RIQをケーススタディとして、シークエント計算からインターポーラントをどのように計算できるかを示す。
これは、記述論理の文脈内で補間子と定義を計算するための最初のシーケントベースのアプローチである。
論文 参考訳(メタデータ) (2024-04-24T12:28:27Z) - CBR-RAG: Case-Based Reasoning for Retrieval Augmented Generation in LLMs for Legal Question Answering [1.0760413363405308]
Retrieval-Augmented Generation (RAG) は、入力のコンテキストとして事前知識を提供することで、Large Language Model (LLM) の出力を向上させる。
ケースベース推論(CBR)は、LLMにおけるRAGプロセスの一部として、構造検索を行う重要な機会を提供する。
我々は,CBRサイクルの初期検索段階,インデックス語彙,類似性知識コンテナを,文脈に関連のあるケースでLLMクエリを強化するために使用するCBR-RAGを紹介する。
論文 参考訳(メタデータ) (2024-04-04T21:47:43Z) - A Case-Based Persistent Memory for a Large Language Model [0.0]
問題解決の方法論としてのケースベース推論(CBR)は、任意の適切な計算手法を用いることができる。
最近のAIのブレークスルーを可能にした基盤となる技術開発は、CBRと強力なシナジーを持っている。
論文 参考訳(メタデータ) (2023-10-13T03:56:38Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering [56.592385613002584]
ゼロショットコモンセンス質問応答の課題に対処するために,概念化強化推論器(CAR)を提案する。
CARは、CommonSenseの知識を多くの高レベルなインスタンスに抽象化し、CommonSenseの知識ベースの範囲を拡大する。
CARは、既存のメソッドよりも、ゼロショットのコモンセンスシナリオに関する質問に答えることにより、より堅牢に一般化する。
論文 参考訳(メタデータ) (2023-05-24T08:21:31Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Effective Explanations for Entity Resolution Models [21.518135952436975]
本研究では,ERの深層学習における説明可能性に関する基礎的問題について検討する。
本稿では,ER問題のセマンティクスを意識したCERTA手法を提案する。
我々は,公開データセットを用いたDLモデルに基づいて,CERTAによる最先端ERソリューションの説明を実験的に評価した。
論文 参考訳(メタデータ) (2022-03-24T10:50:05Z) - Joint Answering and Explanation for Visual Commonsense Reasoning [46.44588492897933]
Visual Commonsense Reasoningは、よりハイレベルな視覚的理解を追求する試みである。
与えられた画像に対する質問応答と、回答説明のための合理的推論の2つの必須プロセスで構成されている。
本稿では,質問応答と推論プロセスの合理化を両立させるための知識蒸留強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-25T11:26:52Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。