論文の概要: Additive Class Distinction Maps using Branched-GANs
- arxiv url: http://arxiv.org/abs/2305.02899v1
- Date: Thu, 4 May 2023 15:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:04:43.275267
- Title: Additive Class Distinction Maps using Branched-GANs
- Title(参考訳): 分枝GANを用いた付加クラス識別マップ
- Authors: Elnatan Kadar, Jonathan Brokman, Guy Gilboa
- Abstract要約: 2種類の画像の区別の正確なマップを作成するために,新しいモデル,訓練手順,アーキテクチャを提案する。
提案アーキテクチャは,複数の生成ネットワーク(分岐GAN)の総和を出力とする画像分解に基づいている。
このアプローチは、各クラスのユニークな特性を明確に、正確に、解釈可能な可視化を可能にする。
- 参考スコア(独自算出の注目度): 7.176107039687231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new model, training procedure and architecture to create precise
maps of distinction between two classes of images. The objective is to
comprehend, in pixel-wise resolution, the unique characteristics of a class.
These maps can facilitate self-supervised segmentation and objectdetection in
addition to new capabilities in explainable AI (XAI). Our proposed architecture
is based on image decomposition, where the output is the sum of multiple
generative networks (branched-GANs). The distinction between classes is
isolated in a dedicated branch. This approach allows clear, precise and
interpretable visualization of the unique characteristics of each class. We
show how our generic method can be used in several modalities for various
tasks, such as MRI brain tumor extraction, isolating cars in aerial photography
and obtaining feminine and masculine face features. This is a preliminary
report of our initial findings and results.
- Abstract(参考訳): 2種類の画像の区別の正確なマップを作成するために,新しいモデル,訓練手順,アーキテクチャを提案する。
その目的は、ピクセル単位で、クラスのユニークな特性を理解することである。
これらのマップは、説明可能なAI(XAI)の新しい機能に加えて、自己教師付きセグメンテーションとオブジェクト検出を促進することができる。
提案アーキテクチャは,複数の生成ネットワーク(分岐GAN)の総和を出力とする画像分解に基づいている。
クラス間の区別は専用のブランチで分離される。
このアプローチは、各クラスのユニークな特性を明確に、正確に、解釈可能な可視化を可能にする。
我々は,MRI脳腫瘍抽出,航空写真における車分離,女性および男性顔の特徴の取得など,様々なタスクにおいて汎用的な手法が利用できることを示す。
これは私たちの最初の発見と結果の予備報告です。
関連論文リスト
- Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - Understanding the Role of Pathways in a Deep Neural Network [4.456675543894722]
分類タスクで訓練された畳み込みニューラルネットワーク(CNN)を分析し,個々の画素の拡散経路を抽出するアルゴリズムを提案する。
画像からの個々のピクセルの最も大きな経路は、分類に重要な各層の特徴マップを横断する傾向にある。
論文 参考訳(メタデータ) (2024-02-28T07:53:19Z) - DXAI: Explaining Classification by Image Decomposition [4.013156524547072]
我々は、分解に基づく説明可能なAI(DXAI)を用いてニューラルネットワークの分類を可視化する新しい方法を提案する。
本手法は,説明熱マップを提供する代わりに,画像のクラス非依存部分とクラス固有部分への分解を行う。
論文 参考訳(メタデータ) (2023-12-30T20:52:20Z) - MAP: Domain Generalization via Meta-Learning on Anatomy-Consistent
Pseudo-Modalities [12.194439938007672]
解剖学的に整合した擬似モダリティ(MAP)のメタラーニングを提案する。
MAPは構造的特徴を学習することでモデル一般化性を向上させる。
各種網膜画像モダリティの公開データセットを7つ評価した。
論文 参考訳(メタデータ) (2023-09-03T22:56:22Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - A Generalist Framework for Panoptic Segmentation of Images and Videos [61.61453194912186]
我々は,タスクの帰納バイアスに頼ることなく,離散的なデータ生成問題としてパノプティクスセグメンテーションを定式化する。
単純な構造と一般的な損失関数を持つパノスコープマスクをモデル化するための拡散モデルを提案する。
本手法は,動画を(ストリーミング環境で)モデル化し,オブジェクトのインスタンスを自動的に追跡することを学ぶ。
論文 参考訳(メタデータ) (2022-10-12T16:18:25Z) - Discriminative Feature Learning through Feature Distance Loss [0.0]
本研究は,多様なリッチベースモデルを組み合わせて,異なる重要な画像領域に着目して分類する手法を提案する。
ベンチマーク畳み込みニューラルネットワーク(VGG16, ResNet, AlexNet)、一般的なデータセット(Cifar10, Cifar100, miniImageNet, NEU, BSD, TEX)の実験は、我々の手法の有効性と一般化能力を示している。
論文 参考訳(メタデータ) (2022-05-23T20:01:32Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。