論文の概要: Image Class Translation Distance: A Novel Interpretable Feature for Image Classification
- arxiv url: http://arxiv.org/abs/2408.08973v1
- Date: Fri, 16 Aug 2024 18:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 23:16:31.249601
- Title: Image Class Translation Distance: A Novel Interpretable Feature for Image Classification
- Title(参考訳): 画像クラス翻訳距離:画像分類のための新しい解釈可能な特徴
- Authors: Mikyla K. Bowen, Jesse W. Wilson,
- Abstract要約: 本稿では,画像分類のための新しい画像翻訳ネットワークを提案する。
我々は、可能なクラス間で画像を翻訳し、翻訳距離を定量化するネットワークを訓練する。
これらの翻訳距離はクラスタや傾向について調べることができ、単純な分類器に直接供給することができる。
おもちゃの2クラスシナリオ、リンゴ対オレンジのアプローチを実証し、それを2つの医療画像タスクに適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a novel application of image translation networks for image classification and demonstrate its potential as a more interpretable alternative to conventional black box classification networks. We train a network to translate images between possible classes, and then quantify translation distance, i.e. the degree of alteration needed to conform an image to one class or another. These translation distances can then be examined for clusters and trends, and can be fed directly to a simple classifier (e.g. a support vector machine, SVM), providing comparable accuracy compared to a conventional end-to-end convolutional neural network classifier. In addition, visual inspection of translated images can reveal class-specific characteristics and biases in the training sets, such as visual artifacts that are more frequently observed in one class or another. We demonstrate the approach on a toy 2-class scenario, apples versus oranges, and then apply it to two medical imaging tasks: detecting melanoma from photographs of pigmented lesions and classifying 6 cell types in a bone marrow biopsy smear. This novel application of image-to-image networks shows the potential of the technology to go beyond imagining different stylistic changes and to provide greater insight into image classification and medical imaging datasets.
- Abstract(参考訳): 本稿では,画像分類における画像翻訳ネットワークの新たな応用を提案し,従来のブラックボックス分類ネットワークの代替として,その可能性を実証する。
我々は、可能なクラス間で画像を翻訳するネットワークを訓練し、あるクラスまたは別のクラスに画像を適合させるために必要な変更の度合いなど、翻訳距離を定量化する。
これらの翻訳距離はクラスタやトレンドに対して調べられ、単純な分類器(例えば、サポートベクトルマシン、SVM)に直接供給され、従来のエンドツーエンドの畳み込みニューラルネットワーク分類器と同等の精度が得られる。
さらに、翻訳された画像の視覚的検査は、あるクラスでより頻繁に観察される視覚的アーティファクトなど、トレーニングセットにおけるクラス固有の特徴とバイアスを明らかにすることができる。
そこで本研究では, 色素性病変の画像からメラノーマを検出し, 骨髄生検で6種類の細胞タイプを分類する2つの医療画像に, リンゴとオレンジの2種類のシナリオを応用した。
この新しいイメージ・ツー・イメージ・ネットワークの応用は、異なるスタイルの変化を想像するだけでなく、画像分類と医用画像データセットに関する深い洞察を提供する技術の可能性を示している。
関連論文リスト
- PM2: A New Prompting Multi-modal Model Paradigm for Few-shot Medical Image Classification [12.628447384868503]
本稿では,PM2と呼ばれるマルチモーダル基盤モデルに基づく医用画像分類のための新しいマルチモーダルモデルパラダイムを提案する。
画像のモダリティに加えて、PM2はプロンプトとして知られる別の補足的なテキスト入力を導入し、対応する画像や概念クラスを記述している。
我々のPM2は、プロンプトスキームによらず、かなり優れており、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-04-13T07:27:06Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - A Test Statistic Estimation-based Approach for Establishing
Self-interpretable CNN-based Binary Classifiers [7.424003880270276]
ポストホック解釈可能性法は、可算だが異なる解釈を生成できるという限界がある。
提案手法は自己解釈可能で定量的であり,従来のポストホック・インタプリタビリティ法とは異なり,自己解釈可能で定量的である。
論文 参考訳(メタデータ) (2023-03-13T05:51:35Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Dermoscopic Image Classification with Neural Style Transfer [5.314466196448187]
皮膚病変分類問題に対する新しい画像前処理ステップとして,NST(Neural Style Transfer)の適応を提案する。
各皮膚内視鏡像をスタイル画像として表現し、病変のスタイルを均質なコンテンツ画像に転送します。
これにより、各病変の主な変動を同じ局在領域に転送し、生成された画像を一緒に統合し、潜伏した低ランクスタイルの特徴を抽出します。
論文 参考訳(メタデータ) (2021-05-17T03:50:51Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Improving Endoscopic Decision Support Systems by Translating Between
Imaging Modalities [4.760079434948197]
異なる画像モダリティを示す内視鏡画像への画像-画像変換の適用性について検討した。
コンピュータ支援セリアック病診断において,画像と画像の翻訳がドメイン間の翻訳を効果的に行うことができるかどうかを検討する。
論文 参考訳(メタデータ) (2020-04-27T06:55:56Z) - Melanoma Detection using Adversarial Training and Deep Transfer Learning [6.22964000148682]
皮膚病変画像の自動分類のための2段階の枠組みを提案する。
第1段階では、条件付き画像合成のタスクにおいて、データ分布のクラス間変動を利用する。
第2段階では,皮膚病変分類のための深部畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2020-04-14T22:46:20Z) - Structural-analogy from a Single Image Pair [118.61885732829117]
本稿では,1対の画像A,Bのみを用いて,ニューラルネットワークによる画像構造理解能力について検討する。
我々は、B の外観とスタイルを保持するが、A に対応する構造的配置を持つ画像を生成する。
提案手法は,画像AとBのみを利用した条件生成タスクにおいて,高品質な画像を生成するために利用できる。
論文 参考訳(メタデータ) (2020-04-05T14:51:10Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。