論文の概要: Concept Based Explanations and Class Contrasting
- arxiv url: http://arxiv.org/abs/2502.03422v1
- Date: Wed, 05 Feb 2025 18:10:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:27:22.277380
- Title: Concept Based Explanations and Class Contrasting
- Title(参考訳): 概念に基づく説明とクラスコントラスト
- Authors: Rudolf Herdt, Daniel Otero Baguer,
- Abstract要約: 本稿では,概念に基づく説明手法を導入し,個々のクラスの予測と2つのクラスを対比する手法を提案する。
我々は、ImageNet1Kでトレーニングされたいくつかの分類モデルと、染色組織サンプルの腫瘍を検出する訓練されたセグメンテーションモデルでテストした。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Explaining deep neural networks is challenging, due to their large size and non-linearity. In this paper, we introduce a concept-based explanation method, in order to explain the prediction for an individual class, as well as contrasting any two classes, i.e. explain why the model predicts one class over the other. We test it on several openly available classification models trained on ImageNet1K, as well as on a segmentation model trained to detect tumor in stained tissue samples. We perform both qualitative and quantitative tests. For example, for a ResNet50 model from pytorch model zoo, we can use the explanation for why the model predicts a class 'A' to automatically select six dataset crops where the model does not predict class 'A'. The model then predicts class 'A' again for the newly combined image in 71\% of the cases (works for 710 out of the 1000 classes). The code including an .ipynb example is available on git: https://github.com/rherdt185/concept-based-explanations-and-class-contrasting.
- Abstract(参考訳): 大きなサイズと非線形性のため、ディープニューラルネットワークの説明は難しい。
本稿では,概念に基づく説明手法を導入し,個々のクラスに対する予測を説明するとともに,モデルが一方のクラスを他方のクラスに対して予測する理由を説明する。
我々は、ImageNet1Kでトレーニングされたいくつかの公開分類モデルと、染色組織サンプルの腫瘍を検出する訓練されたセグメンテーションモデルでテストした。
定性テストと定量的テストの両方を行います。
例えば、pytorch model Zo の ResNet50 モデルでは、モデルがクラス 'A' を予測している理由を説明して、モデルがクラス 'A' を予測していない6つのデータセット作物を自動的に選択することができる。
モデルでは、新たに合成された画像に対して、71 %のケースで再び 'A' クラスを予測する(1000 クラス中710 の作業)。
.NET を含むコード。
ipynbの例はgitで公開されている。 https://github.com/rherdt185/concept-based-explanations-and-class-contrasting。
関連論文リスト
- Achieving Data Efficient Neural Networks with Hybrid Concept-based Models [0.0]
クラスラベルと概念と呼ばれるデータセットの付加情報の両方をトレーニングする2つの新しいモデルアーキテクチャを導入する。
ハイブリッドの概念に基づくモデルは、特にスパースデータ設定において、精度に関して、標準的なコンピュータビジョンモデルよりも優れていることを示す。
また,概念ベースモデルの概念予測を変更せずに,クラス予測を変更する方法で,画像が摂動されるような,敵対的概念攻撃を行うアルゴリズムも導入する。
論文 参考訳(メタデータ) (2024-08-14T10:15:34Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - On the Role of Neural Collapse in Meta Learning Models for Few-shot
Learning [0.9729803206187322]
この研究は、数ショット学習のためのメタラーニングフレームワークにおける神経崩壊の性質を初めて探求し、理解したものである。
我々は,オムニグロットデータセットを数ショット設定で研究し,神経崩壊現象を研究する。
論文 参考訳(メタデータ) (2023-09-30T18:02:51Z) - Unicom: Universal and Compact Representation Learning for Image
Retrieval [65.96296089560421]
大規模LAION400Mを,CLIPモデルにより抽出された共同テキストと視覚的特徴に基づいて,100万の擬似クラスにクラスタリングする。
このような矛盾を緩和するために、我々は、マージンベースのソフトマックス損失を構築するために、ランダムにクラス間の部分的なプロトタイプを選択する。
提案手法は,複数のベンチマークにおいて,教師なし,教師なしの画像検索手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-12T14:25:52Z) - GMM-IL: Image Classification using Incrementally Learnt, Independent
Probabilistic Models for Small Sample Sizes [0.4511923587827301]
本稿では,視覚的特徴学習と確率モデルを組み合わせた2段階アーキテクチャを提案する。
我々は、ソフトマックスヘッドを用いた等価ネットワークのベンチマークを上回り、サンプルサイズが12以下の場合の精度が向上し、3つの不均衡なクラスプロファイルに対する重み付きF1スコアが向上した。
論文 参考訳(メタデータ) (2022-12-01T15:19:42Z) - Datamodels: Predicting Predictions from Training Data [86.66720175866415]
本稿では,モデルクラスの振る舞いを学習データの観点から分析するための概念的枠組みであるデータモデリングについて述べる。
単純な線形データモデルであっても、モデル出力をうまく予測できることが示される。
論文 参考訳(メタデータ) (2022-02-01T18:15:24Z) - LIMEcraft: Handcrafted superpixel selection and inspection for Visual
eXplanations [3.0036519884678894]
LIMEcraftは、ユーザがインタラクティブにセマンティックに一貫性のある領域を選択し、イメージインスタンスの予測を徹底的に検証することを可能にする。
本手法は,モデルバイアスを示す画像のモデルフェアネスを検査することにより,モデルの安全性を向上させる。
論文 参考訳(メタデータ) (2021-11-15T21:40:34Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。