論文の概要: Extracting Causal Visual Features for Limited label Classification
- arxiv url: http://arxiv.org/abs/2103.12322v1
- Date: Tue, 23 Mar 2021 05:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:05:50.532917
- Title: Extracting Causal Visual Features for Limited label Classification
- Title(参考訳): 限定ラベル分類のための因果視覚特徴抽出
- Authors: Mohit Prabhushankar and Ghassan AlRegib
- Abstract要約: Grad-CAMから因果的特徴を抽出する手法を提案する。
平均して,提案する因果的特徴を持つ画像領域は,Huffmanエンコーディングを用いて符号化する場合,15%少ないビットを必要とすることを示す。
ネットワーク間の因果特性の伝達可能性を検証するとともに、現在のネットワークの非人間的解釈可能な因果性についてコメントする。
- 参考スコア(独自算出の注目度): 26.65337569468343
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks trained to classify images do so by identifying features that
allow them to distinguish between classes. These sets of features are either
causal or context dependent. Grad-CAM is a popular method of visualizing both
sets of features. In this paper, we formalize this feature divide and provide a
methodology to extract causal features from Grad-CAM. We do so by defining
context features as those features that allow contrast between predicted class
and any contrast class. We then apply a set theoretic approach to separate
causal from contrast features for COVID-19 CT scans. We show that on average,
the image regions with the proposed causal features require 15% less bits when
encoded using Huffman encoding, compared to Grad-CAM, for an average increase
of 3% classification accuracy, over Grad-CAM. Moreover, we validate the
transfer-ability of causal features between networks and comment on the
non-human interpretable causal nature of current networks.
- Abstract(参考訳): 画像を分類するために訓練されたニューラルネットワークは、クラスを区別できる特徴を識別する。
これらの特徴セットは因果関係または文脈依存である。
Grad-CAMは両方の機能を視覚化する一般的な方法である。
本稿では,この特徴分割を形式化し,Grad-CAMから因果的特徴を抽出する手法を提案する。
私たちは、予測されたクラスと任意のコントラストクラスのコントラストを可能にする機能としてコンテキスト機能を定義します。
次に、covid-19 ctスキャンのコントラスト特徴と因果関係を分離するために、セット理論的アプローチを適用した。
提案する因果的特徴を持つ画像領域は,Grad-CAMに比べて平均3%の分類精度で,Huffman符号化を用いて符号化する場合,平均15%少ないビットを必要とすることを示す。
さらに,ネットワーク間の因果的特徴の伝達可能性を検証するとともに,現在のネットワークの非人間的解釈可能な因果的性質についてコメントする。
関連論文リスト
- Mining Open Semantics from CLIP: A Relation Transition Perspective for Few-Shot Learning [46.25534556546322]
そこで本稿では,イメージ・アンカー関係から画像・ターゲット関係に遷移して予測を行うアンカーとしてオープンセマンティクスを抽出することを提案する。
本手法は, 数ショットの分類設定を考慮し, 従来の最先端技術に対して良好に機能する。
論文 参考訳(メタデータ) (2024-06-17T06:28:58Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Importance Sampling CAMs for Weakly-Supervised Segmentation [16.86352815414646]
クラスアクティベーションマップ(CAM)は、クラスアクティベーションマップ(CAM)を用いて、画像内のオブジェクトのローカライズとセグメント化に使用できる。
本研究では,CAM学習の改善に2つの貢献によって両問題にアプローチする。
PASCAL VOC 2012ベンチマークデータセットを用いて,これらの修正によって輪郭精度が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-03-23T14:54:29Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Convolutional Neural Networks from Image Markers [62.997667081978825]
特徴 画像マーカーからの学習(FLIM)は、ごく少数の画像でユーザーが描画したストロークから、バックプロパゲーションのない畳み込みフィルタを推定するために最近提案されました。
本稿では、フルコネクテッド層に対してFLIMを拡張し、異なる画像分類問題について実証する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロから訓練された同じアーキテクチャを上回ります。
論文 参考訳(メタデータ) (2020-12-15T22:58:23Z) - GOCor: Bringing Globally Optimized Correspondence Volumes into Your
Neural Network [176.3781969089004]
特徴相関層は、画像ペア間の密接な対応を含むコンピュータビジョン問題において、重要なニューラルネットワークモジュールとして機能する。
我々は,特徴相関層の直接置換として機能する,完全に微分可能な密マッチングモジュール GOCor を提案する。
本手法は,幾何マッチング,光学フロー,密接なセマンティックマッチングのタスクにおいて,特徴相関層を著しく上回っている。
論文 参考訳(メタデータ) (2020-09-16T17:33:01Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。