論文の概要: Distance-Aware eXplanation Based Learning
- arxiv url: http://arxiv.org/abs/2309.05548v1
- Date: Mon, 11 Sep 2023 15:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 12:00:06.980993
- Title: Distance-Aware eXplanation Based Learning
- Title(参考訳): 遠隔認識による説明学習
- Authors: Misgina Tsighe Hagos, Niamh Belton, Kathleen M. Curran, Brian Mac
Namee
- Abstract要約: 本稿では,学習者が学習データセットの重要な領域に集中するように指導するカテゴリー的損失に対して,距離認識による説明損失を追加する手法を提案する。
既存のメトリクスを用いたモデルの評価に加えて,視覚的特徴量に基づくモデル説明を評価するための解釈可能性指標を提案する。
- 参考スコア(独自算出の注目度): 5.578004730855819
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: eXplanation Based Learning (XBL) is an interactive learning approach that
provides a transparent method of training deep learning models by interacting
with their explanations. XBL augments loss functions to penalize a model based
on deviation of its explanations from user annotation of image features. The
literature on XBL mostly depends on the intersection of visual model
explanations and image feature annotations. We present a method to add a
distance-aware explanation loss to categorical losses that trains a learner to
focus on important regions of a training dataset. Distance is an appropriate
approach for calculating explanation loss since visual model explanations such
as Gradient-weighted Class Activation Mapping (Grad-CAMs) are not strictly
bounded as annotations and their intersections may not provide complete
information on the deviation of a model's focus from relevant image regions. In
addition to assessing our model using existing metrics, we propose an
interpretability metric for evaluating visual feature-attribution based model
explanations that is more informative of the model's performance than existing
metrics. We demonstrate performance of our proposed method on three image
classification tasks.
- Abstract(参考訳): eXplanation Based Learning (XBL) は、インタラクティブな学習手法であり、その説明と対話することでディープラーニングモデルをトレーニングする透過的な方法を提供する。
XBLは、画像特徴のユーザアノテーションからの説明の偏りに基づいて、損失関数を拡張してモデルをペナルティ化する。
XBLの文献は主に視覚モデル説明と画像特徴アノテーションの交わりに依存している。
本稿では,学習者が学習データセットの重要な領域に集中するように訓練するカテゴリー的損失に対して,距離認識による説明損失を付加する手法を提案する。
勾配強調クラスアクティベーションマッピング(gradle-cams)のような視覚的モデル説明はアノテーションとして厳密に境界付けられておらず、それらの交点が関連する画像領域からのモデルの焦点のずれに関する完全な情報を提供しないため、距離は説明損失を計算するのに適切なアプローチである。
既存のメトリクスを用いたモデルの評価に加えて,既存のメトリクスよりもモデルの性能についてより有益な視覚的特徴属性に基づくモデル説明を評価するための解釈可能性指標を提案する。
3つの画像分類タスクにおける提案手法の性能を示す。
関連論文リスト
- Assessing Graphical Perception of Image Embedding Models using Channel Effectiveness [20.269583912221734]
画像埋め込みモデルの視覚的知覚を評価するための新しい評価フレームワークを提案する。
チャート理解のために,様々な視覚チャネルの精度と識別可能性という,チャネルの有効性の2つの主な側面について検討する。
CLIPモデルを用いた実験では、チャンネルの精度が人間と異なることが分かり、長さ、傾き、曲率などのチャンネルで独自の識別性を示す。
論文 参考訳(メタデータ) (2024-07-30T14:22:13Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - LLM2Loss: Leveraging Language Models for Explainable Model Diagnostics [5.33024001730262]
我々は、失敗とバイアスのモデルパターンに関するセマンティックな洞察を提供するアプローチを提案する。
このような軽量モデルのアンサンブルを用いて,ブラックボックスモデルの性能に関する洞察を得られることを示す。
論文 参考訳(メタデータ) (2023-05-04T23:54:37Z) - SegPrompt: Using Segmentation Map as a Better Prompt to Finetune Deep
Models for Kidney Stone Classification [62.403510793388705]
深層学習は、内視鏡画像を用いた腎臓結石分類のための奨励的な結果を生み出している。
注釈付きトレーニングデータの不足は、トレーニングされたモデルの性能と一般化能力を改善する上で深刻な問題を引き起こす。
本稿では,セグメンテーションマップを2つの側面から活用することにより,データ不足問題を軽減するためにSegPromptを提案する。
論文 参考訳(メタデータ) (2023-03-15T01:30:48Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Towards Visually Explaining Similarity Models [29.704524987493766]
本稿では,画像類似度予測のための勾配に基づく視覚的注意を生成する手法を提案する。
学習した機能の埋め込みにのみ依存することにより、我々のアプローチがCNNベースの類似性アーキテクチャのあらゆる種類に適用可能であることを示す。
得られたアテンションマップは、単に解釈可能性だけでなく、新たなトレーニング可能な制約でモデル学習プロセス自体に注入可能であることを示す。
論文 参考訳(メタデータ) (2020-08-13T17:47:41Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。