論文の概要: Reinforcement Explanation Learning
- arxiv url: http://arxiv.org/abs/2111.13406v1
- Date: Fri, 26 Nov 2021 10:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:28:11.582625
- Title: Reinforcement Explanation Learning
- Title(参考訳): 強化説明学習
- Authors: Siddhant Agarwal, Owais Iqbal, Sree Aditya Buridi, Madda Manjusha,
Abir Das
- Abstract要約: 従順写像を生成するブラックボックス法は、決定を説明するためにモデルの内部を使わないという事実から、特に興味深い。
逐次探索問題としてサリエンシマップ生成を定式化し、強化学習(RL)を利用して入力画像から証拠を蓄積する。
3つのベンチマークデータセットの実験は、提案手法がパフォーマンスを損なわずに最先端の予測時間よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 4.852320309766702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning has become overly complicated and has enjoyed stellar success
in solving several classical problems like image classification, object
detection, etc. Several methods for explaining these decisions have been
proposed. Black-box methods to generate saliency maps are particularly
interesting due to the fact that they do not utilize the internals of the model
to explain the decision. Most black-box methods perturb the input and observe
the changes in the output. We formulate saliency map generation as a sequential
search problem and leverage upon Reinforcement Learning (RL) to accumulate
evidence from input images that most strongly support decisions made by a
classifier. Such a strategy encourages to search intelligently for the
perturbations that will lead to high-quality explanations. While successful
black box explanation approaches need to rely on heavy computations and suffer
from small sample approximation, the deterministic policy learned by our method
makes it a lot more efficient during the inference. Experiments on three
benchmark datasets demonstrate the superiority of the proposed approach in
inference time over state-of-the-arts without hurting the performance. Project
Page: https://cvir.github.io/projects/rexl.html
- Abstract(参考訳): ディープラーニングは複雑になり、画像分類やオブジェクト検出など、いくつかの古典的な問題の解決に成功している。
これらの決定を説明するいくつかの方法が提案されている。
サリエンシーマップを生成するブラックボックスメソッドは、決定を説明するためにモデルの内部を利用していないという事実から、特に興味深い。
ほとんどのブラックボックスメソッドは入力を摂動させ、出力の変化を観察します。
我々は,逐次探索問題としてサリエンシーマップ生成を定式化し,強化学習(rl)を利用して,分類器による決定を最も強く支持する入力画像から証拠を蓄積する。
このような戦略は、高品質な説明につながる摂動を知的に探索することを奨励する。
ブラックボックスの説明手法を成功させるには、重い計算に頼り、小さなサンプル近似に苦しむ必要があるが、本手法で学習した決定論的ポリシーにより、推論においてより効率的になる。
3つのベンチマークデータセットの実験では、提案手法がパフォーマンスを損なわずに最先端の予測時間よりも優れていることを示した。
プロジェクトページ: https://cvir.github.io/projects/rexl.html
関連論文リスト
- Adapting Vision-Language Models to Open Classes via Test-Time Prompt Tuning [50.26965628047682]
学習済みのモデルをオープンクラスに適応させることは、機械学習において難しい問題である。
本稿では,両者の利点を組み合わせたテスト時プロンプトチューニング手法を提案する。
提案手法は,基本クラスと新クラスの両方を考慮し,すべての比較手法を平均的に上回る結果を得た。
論文 参考訳(メタデータ) (2024-08-29T12:34:01Z) - How to Choose a Reinforcement-Learning Algorithm [29.76033485145459]
我々は、強化学習アルゴリズムと行動配信ファミリーを選択するプロセスの合理化を図る。
既存のメソッドとその特性に関する構造化された概要と、どのメソッドを選択するかのガイドラインを提供する。
論文 参考訳(メタデータ) (2024-07-30T15:54:18Z) - R-Tuning: Instructing Large Language Models to Say `I Don't Know' [66.11375475253007]
大きな言語モデル(LLM)は、優れたパフォーマンスで多くのドメインに革命をもたらしたが、それでもその課題に直面している。
事前の指導チューニング方法は、モデルが知識を知っているかどうかに関わらず、モデルに文章を完成させるよう強制する。
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
実験の結果、R-Tuningは、既知の質問に答えたり、未知の質問に答えるのを控えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - McXai: Local model-agnostic explanation as two games [5.2229999775211216]
この研究はモンテカルロ木探索(Monte Carlo tree search for eXplainable Artificial Intelligent, McXai)と呼ばれる強化学習に基づくアプローチを導入し、ブラックボックス分類モデル(分類器)の決定について説明する。
実験の結果, LIME や SHAP などの古典的手法に比べて,本手法の特徴は分類に関してより有益であることが示唆された。
論文 参考訳(メタデータ) (2022-01-04T09:02:48Z) - TDLS: A Top-Down Layer Searching Algorithm for Generating Counterfactual
Visual Explanation [4.4553061479339995]
きめ細かい画像分類問題に対して, 反実的説明を適用した。
我々のTDLSアルゴリズムは、より柔軟な対実的な視覚的説明を提供する可能性があることを証明した。
最後に, 対実的な視覚的説明のいくつかのシナリオについて論じる。
論文 参考訳(メタデータ) (2021-08-08T15:27:14Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - PointHop++: A Lightweight Learning Model on Point Sets for 3D
Classification [55.887502438160304]
ポイントホップ法は、Zhangらによって、教師なし特徴抽出を伴う3Dポイントクラウド分類のために提案された。
1)モデルパラメータ数の観点からモデルの複雑さを減らし,2)クロスエントロピー基準に基づいて自動的に識別特徴を順序付けする。
ModelNet40ベンチマークデータセットで実施した実験により、PointHop++法がディープニューラルネットワーク(DNN)ソリューションと同等に動作し、他の教師なし特徴抽出法を上回る性能を示す。
論文 参考訳(メタデータ) (2020-02-09T04:49:32Z) - Black Box Explanation by Learning Image Exemplars in the Latent Feature
Space [20.16179026989117]
画像分類のためのブラックボックスモデルの決定について説明する。
本手法は,対向オートエンコーダを用いて学習した潜在特徴空間を利用する。
提案手法は, 忠実度, 妥当性, 一貫性, 安定性の観点から, 既存の説明よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-27T15:42:14Z) - Auditing and Debugging Deep Learning Models via Decision Boundaries:
Individual-level and Group-level Analysis [0.0]
深層学習モデルの説明、監査、デバッグにはフリップポイントを使用します。
フリップポイントは、2つの出力クラスの境界にある任意の点である。
機械学習のソーシャルな応用に使用される標準データセットに基づいて訓練されたモデルをいくつか調べて,本手法を実証する。
論文 参考訳(メタデータ) (2020-01-03T01:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。