論文の概要: Bounded logit attention: Learning to explain image classifiers
- arxiv url: http://arxiv.org/abs/2105.14824v1
- Date: Mon, 31 May 2021 09:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:52:08.810849
- Title: Bounded logit attention: Learning to explain image classifiers
- Title(参考訳): 境界ロジット注意:画像分類器の学習
- Authors: Thomas Baumhauer and Djordje Slijepcevic and Matthias Zeppelzauer
- Abstract要約: 我々は、有界ロジットアテンション(BLA)と呼ばれる畳み込み画像分類器のための訓練可能な説明モジュールを提案する。
BLAモジュールは、各入力インスタンスに対して畳み込み特徴マップのサブセットを選択することを学習し、次に分類器の予測の説明として機能する。
ユーザスタディでは、人気のある(Grad-)CAM法で生成された説明よりも、BLAの説明の方が好ましいことがわかった。
- 参考スコア(独自算出の注目度): 3.9305913922256073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence is the attempt to elucidate the workings
of systems too complex to be directly accessible to human cognition through
suitable side-information referred to as "explanations". We present a trainable
explanation module for convolutional image classifiers we call bounded logit
attention (BLA). The BLA module learns to select a subset of the convolutional
feature map for each input instance, which then serves as an explanation for
the classifier's prediction. BLA overcomes several limitations of the
instancewise feature selection method "learning to explain" (L2X) introduced by
Chen et al. (2018): 1) BLA scales to real-world sized image classification
problems, and 2) BLA offers a canonical way to learn explanations of variable
size. Due to its modularity BLA lends itself to transfer learning setups and
can also be employed as a post-hoc add-on to trained classifiers. Beyond
explainability, BLA may serve as a general purpose method for differentiable
approximation of subset selection. In a user study we find that BLA
explanations are preferred over explanations generated by the popular
(Grad-)CAM method.
- Abstract(参考訳): 説明可能な人工知能は、「説明」と呼ばれる適切なサイド情報を通じて、人間の認知に直接アクセスできないほど複雑すぎるシステムの動作を解明しようとする試みである。
本稿では,BLA(bounded logit attention)と呼ばれる畳み込み画像分類のためのトレーニング可能な説明モジュールを提案する。
BLAモジュールは、各入力インスタンスに対して畳み込み特徴マップのサブセットを選択することを学習し、次に分類器の予測の説明として機能する。
BLAはChenらによって導入された"L2X"(Learning to explain)というインスタンスワイズ機能選択手法のいくつかの制限を克服している。
(2018):1)BLAは実世界の画像分類問題にスケールし、2)BLAは可変サイズの説明を学ぶための標準的な方法を提供する。
モジュラリティのため、BLAは学習装置の転送を自認しており、訓練された分類器のポストホックアドオンとしても使用できる。
説明可能性以外にも、BLAは部分集合選択の微分可能近似の汎用的な方法として機能する。
ユーザスタディでは、人気のある(Grad-)CAM法で生成された説明よりも、BLAの説明の方が好ましいことがわかった。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Goal-Driven Explainable Clustering via Language Descriptions [50.980832345025334]
我々は新しいタスク定式化"Goal-Driven Clustering with Explanations"(GoalEx)を提案する。
GoalExは、ゴールと説明の両方を自由形式の言語記述として表現している。
提案手法は,従来の手法よりも精度が高く,目標に関連のある説明を導出する。
論文 参考訳(メタデータ) (2023-05-23T07:05:50Z) - GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs [11.453325862543094]
GraphSHAPは、ID対応グラフ分類器のモチーフベースの説明を提供することができる。
簡単なカーネルが説明スコアを効率的に近似し,説明空間が大きいシナリオで GraphSHAP をスケールできるようにする方法を示す。
実験では,ブラックボックスモデルによって提供される分類が,いくつかのコネクトロミクスパターンによって効果的に説明できることを強調した。
論文 参考訳(メタデータ) (2022-02-17T18:29:30Z) - Unsupervised Causal Binary Concepts Discovery with VAE for Black-box
Model Explanation [28.990604269473657]
データ X がクラス Y に分類されるのは、X textithas A, B と textitdoes が C を持っていないからである。
論文 参考訳(メタデータ) (2021-09-09T19:06:53Z) - ECKPN: Explicit Class Knowledge Propagation Network for Transductive
Few-shot Learning [53.09923823663554]
クラスレベルの知識は、ほんの一握りのサンプルから人間が容易に学習することができる。
本稿では,この問題に対処する明示的クラス知識伝達ネットワーク(ECKPN)を提案する。
筆者らは,4つの数ショット分類ベンチマークについて広範な実験を行い,提案したECKPNが最先端の手法よりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2021-06-16T02:29:43Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - SCOUTER: Slot Attention-based Classifier for Explainable Image
Recognition [27.867833878756553]
透明かつ正確な分類のためのスロットアテンションに基づく SCOUTER という分類器を提案する。
SCOUTERの説明は各カテゴリの最終的な信頼性に関係しており、より直感的な解釈を提供する。
SCOUTERに最適化された新たな損失を設計し,モデル動作を制御することにより,肯定的な説明と否定的な説明を切り替える。
論文 参考訳(メタデータ) (2020-09-14T01:34:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。