論文の概要: CoRTX: Contrastive Framework for Real-time Explanation
- arxiv url: http://arxiv.org/abs/2303.02794v1
- Date: Sun, 5 Mar 2023 23:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:49:16.548762
- Title: CoRTX: Contrastive Framework for Real-time Explanation
- Title(参考訳): CoRTX: リアルタイム説明のためのコントラストフレームワーク
- Authors: Yu-Neng Chuang, Guanchu Wang, Fan Yang, Quan Zhou, Pushkar Tripathi,
Xuanting Cai, Xia Hu
- Abstract要約: 説明指向表現を学習するために,Contrastive Real-Time eXplanation (CoRTX) フレームワークを提案する。
具体的には、説明の学習において、肯定的および否定的な事例を選択するための合成戦略を設計する。
- 参考スコア(独自算出の注目度): 39.80484758207907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in explainable machine learning provide effective and
faithful solutions for interpreting model behaviors. However, many explanation
methods encounter efficiency issues, which largely limit their deployments in
practical scenarios. Real-time explainer (RTX) frameworks have thus been
proposed to accelerate the model explanation process by learning a
one-feed-forward explainer. Existing RTX frameworks typically build the
explainer under the supervised learning paradigm, which requires large amounts
of explanation labels as the ground truth. Considering that accurate
explanation labels are usually hard to obtain due to constrained computational
resources and limited human efforts, effective explainer training is still
challenging in practice. In this work, we propose a COntrastive Real-Time
eXplanation (CoRTX) framework to learn the explanation-oriented representation
and relieve the intensive dependence of explainer training on explanation
labels. Specifically, we design a synthetic strategy to select positive and
negative instances for the learning of explanation. Theoretical analysis show
that our selection strategy can benefit the contrastive learning process on
explanation tasks. Experimental results on three real-world datasets further
demonstrate the efficiency and efficacy of our proposed CoRTX framework.
- Abstract(参考訳): 説明可能な機械学習の最近の進歩は、モデル行動の解釈に効果的で忠実なソリューションを提供する。
しかし、多くの説明手法は効率の問題に遭遇し、実際のシナリオでの展開をほとんど制限している。
リアルタイム説明器(rtx)フレームワークは,一方向説明器を学習することにより,モデル説明プロセスを高速化するために提案されている。
既存のRTXフレームワークは通常、教師付き学習パラダイムの下で説明器を構築する。
正確な説明ラベルは、制約のある計算資源と人間の努力が限られているため、通常は取得が困難である。
本研究では、説明指向の表現を学習し、説明ラベルに対する説明者訓練の集中的依存を緩和するContrastive Real-Time eXplanation(CoRTX)フレームワークを提案する。
具体的には、説明の学習のための肯定的および否定的な事例を選択するための合成戦略を設計する。
理論的分析により,提案手法は説明課題の対比学習プロセスに有益であることが示された。
実世界の3つのデータセットに対する実験結果は,提案したCoRTXフレームワークの有効性と有効性を示す。
関連論文リスト
- Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - T-Explainer: A Model-Agnostic Explainability Framework Based on Gradients [5.946429628497358]
T-ExplainerはTaylorの拡張に基づく新しい局所的な帰属説明器である。
局所的精度や一貫性などの望ましい特性があり、T-Explainerは複数の実行で安定している。
論文 参考訳(メタデータ) (2024-04-25T10:40:49Z) - RouteExplainer: An Explanation Framework for Vehicle Routing Problem [1.7034420812099471]
本稿では,生成経路における各エッジの影響を説明する,ポストホックな説明フレームワークであるRouteExplainerを提案する。
本フレームワークは,行動系列として経路を再考し,行動影響モデルに基づく対実的説明をVRPに拡張することでこれを実現している。
さらに、各エッジの意図を推測するエッジ分類器、エッジ分類器を訓練する損失関数、大言語モデル(LLM)による説明文生成を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:01:35Z) - LaRS: Latent Reasoning Skills for Chain-of-Thought Reasoning [61.7853049843921]
Chain-of-Thoughting(CoT)プロンプトは、大規模言語モデル(LLM)のための一般的なコンテキスト内学習手法である。
本稿では、教師なし学習を用いて有理数の潜在空間表現を生成するLaRS(Lalatnt Reasoning Skills)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-07T20:36:10Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - RELAX: Representation Learning Explainability [10.831313203043514]
本稿では、帰属に基づく表現の説明のための最初のアプローチであるRELAXを提案する。
ReLAXは、入力とマスクアウトされた自身のバージョンの間の表現空間における類似性を測定することで表現を説明する。
我々はRELAXの理論的解釈を提供し、教師なし学習を用いて訓練された特徴抽出器を新規に解析する。
論文 参考訳(メタデータ) (2021-12-19T14:51:31Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Consumer-Driven Explanations for Machine Learning Decisions: An
Empirical Study of Robustness [35.520178007455556]
本稿では、TEDと呼ばれる別の消費者主導のアプローチに基づいて、ターゲットラベルとともに、トレーニングデータに説明を提供するよう要求する。
TEDにおけるいくつかの実践的考察について実験を行い,その性能について異なる分類アルゴリズムを用いて検討した。
論文 参考訳(メタデータ) (2020-01-13T18:45:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。