論文の概要: MIAFEx: An Attention-based Feature Extraction Method for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2501.08562v1
- Date: Wed, 15 Jan 2025 04:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:53:03.566009
- Title: MIAFEx: An Attention-based Feature Extraction Method for Medical Image Classification
- Title(参考訳): MIAFEx:医療画像分類のための注意に基づく特徴抽出手法
- Authors: Oscar Ramos-Soto, Jorge Ramos-Frutos, Ezequiel Perez-Zarate, Diego Oliva, Sandra E. Balderas-Mata,
- Abstract要約: 医用画像注意に基づく特徴抽出器 (MIAFEx) を提案する。
MIAFExの出力特性は従来の分類器とハイブリッド分類器を用いて古典的特徴抽出器と比較される。
- 参考スコア(独自算出の注目度): 5.44645642651339
- License:
- Abstract: Feature extraction techniques are crucial in medical image classification; however, classical feature extractors in addition to traditional machine learning classifiers often exhibit significant limitations in providing sufficient discriminative information for complex image sets. While Convolutional Neural Networks (CNNs) and Vision Transformer (ViT) have shown promise in feature extraction, they are prone to overfitting due to the inherent characteristics of medical imaging data, including small sample sizes or high intra-class variance. In this work, the Medical Image Attention-based Feature Extractor (MIAFEx) is proposed, a novel method that employs a learnable refinement mechanism to enhance the classification token within the Transformer encoder architecture. This mechanism adjusts the token based on learned weights, improving the extraction of salient features and enhancing the model's adaptability to the challenges presented by medical imaging data. The MIAFEx output features quality is compared against classical feature extractors using traditional and hybrid classifiers. Also, the performance of these features is compared against modern CNN and ViT models in classification tasks, demonstrating its superiority in accuracy and robustness across multiple complex classification medical imaging datasets. This advantage is particularly pronounced in scenarios with limited training data, where traditional and modern models often struggle to generalize effectively. The source code of this proposal can be found at https://github.com/Oscar-RamosS/Medical-Image-Attention-based-Feature-Extractor-MIAFEx
- Abstract(参考訳): 特徴抽出技術は, 医用画像分類において重要であるが, 従来の機械学習分類器に加えて, 複雑な画像集合に対して十分な識別情報を提供することにおいて, 重要な制約が生じることが多い。
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は特徴抽出において有望であるが、小さなサンプルサイズや高いクラス内分散を含む医療画像データ固有の特徴のため、過度に適合する傾向にある。
本研究は,トランスフォーマーエンコーダアーキテクチャにおける分類トークンを強化するために,学習可能な改良機構を用いたMIAFEx(Medical Image Attention-based Feature Extractor)を提案する。
このメカニズムは学習した重量に基づいてトークンを調整し、正常な特徴の抽出を改善し、医療画像データによる課題へのモデルの適応性を高める。
MIAFExの出力特性は従来の分類器とハイブリッド分類器を用いて古典的特徴抽出器と比較される。
また、これらの特徴は、分類タスクにおける現代のCNNおよびViTモデルと比較され、複数の複雑な分類医療画像データセットにおいて、精度と堅牢性が優れていることを示す。
この利点は、伝統的なモデルや現代的なモデルが効果的に一般化するのに苦労する、限られたトレーニングデータを持つシナリオで特に顕著である。
この提案のソースコードはhttps://github.com/Oscar-RamosS/Medical-Image-Attention-based-Feature-Extractor-MIAFExにある。
関連論文リスト
- FUSECAPS: Investigating Feature Fusion Based Framework for Capsule Endoscopy Image Classification [0.0]
この研究は内視鏡画像の分類に強力な方法論を提供する。
本稿では、畳み込みニューラルネットワーク(CNN)、多層パーセプトロン(MLP)、放射能を組み合わせたハイブリッド特徴抽出法を提案する。
カプセル内視鏡ビデオフレーム分類作業において,76.2%の精度で検証を行った。
論文 参考訳(メタデータ) (2024-11-04T21:55:52Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Plug-and-Play Feature Generation for Few-Shot Medical Image
Classification [23.969183389866686]
限られた訓練データを用いた医用画像分類におけるモデル一般化と実用性の向上に大きな可能性を秘めている。
MedMFGは,限られたサンプルから十分なクラス識別機能を生成するために設計された,フレキシブルで軽量なプラグアンドプレイ方式である。
論文 参考訳(メタデータ) (2023-10-14T02:36:14Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - A Novel Vision Transformer with Residual in Self-attention for
Biomedical Image Classification [8.92307560991779]
本稿では、視覚変換器(ViT)のためのマルチヘッド自己注意の新しい枠組みについて述べる。
提案手法は,マルチヘッドアテンションの各ブロックにおける最高のアテンション出力を蓄積するために,残差接続の概念を用いる。
その結果、従来のViTや他の畳み込みに基づく最先端の分類モデルよりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-06-02T15:06:14Z) - Convolutional neural network based on sparse graph attention mechanism
for MRI super-resolution [0.34410212782758043]
深層学習技術を用いた医用画像超解像(SR)再構成は、病変解析を強化し、診断効率と精度を向上させるために医師を支援する。
既存のディープラーニングベースのSR手法は、これらのモデルの表現能力を本質的に制限する畳み込みニューラルネットワーク(CNN)に依存している。
画像特徴抽出に複数の畳み込み演算子特徴抽出モジュール(MCO)を用いるAネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T06:14:22Z) - Forward-Forward Contrastive Learning [4.465144120325802]
医用画像分類のための新しい事前学習手法として,前向きコントラスト学習(FFCL)を提案する。
FFCLは、肺炎分類タスクにおける既存の事前訓練モデルよりも、ImageNet Pretrained ResNet-18よりも3.69%の精度で性能が向上している。
論文 参考訳(メタデータ) (2023-05-04T15:29:06Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。