論文の概要: AFiRe: Anatomy-Driven Self-Supervised Learning for Fine-Grained Representation in Radiographic Images
- arxiv url: http://arxiv.org/abs/2504.10972v1
- Date: Tue, 15 Apr 2025 08:29:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:09:56.332139
- Title: AFiRe: Anatomy-Driven Self-Supervised Learning for Fine-Grained Representation in Radiographic Images
- Title(参考訳): AFiRe:X線画像における微細粒度表現のための解剖駆動型自己監督学習
- Authors: Yihang Liu, Lianghua He, Ying Wen, Longzhen Yang, Hongzhou Chen,
- Abstract要約: 放射線画像解析(AFiRe)における微細表現向上のための解剖学駆動型自己教師型フレームワークを提案する。
AFiReの中核となる考え方は、解剖学的一貫性とVision Transformerのユニークなトークン処理特性を整合させることである。
実験結果から, AFiReは, 最先端のコントラスト学習法と比較して, より凝集性の高い特徴クラスタを実現することができることがわかった。
- 参考スコア(独自算出の注目度): 7.647881928269929
- License:
- Abstract: Current self-supervised methods, such as contrastive learning, predominantly focus on global discrimination, neglecting the critical fine-grained anatomical details required for accurate radiographic analysis. To address this challenge, we propose an Anatomy-driven self-supervised framework for enhancing Fine-grained Representation in radiographic image analysis (AFiRe). The core idea of AFiRe is to align the anatomical consistency with the unique token-processing characteristics of Vision Transformer. Specifically, AFiRe synergistically performs two self-supervised schemes: (i) Token-wise anatomy-guided contrastive learning, which aligns image tokens based on structural and categorical consistency, thereby enhancing fine-grained spatial-anatomical discrimination; (ii) Pixel-level anomaly-removal restoration, which particularly focuses on local anomalies, thereby refining the learned discrimination with detailed geometrical information. Additionally, we propose Synthetic Lesion Mask to enhance anatomical diversity while preserving intra-consistency, which is typically corrupted by traditional data augmentations, such as Cropping and Affine transformations. Experimental results show that AFiRe: (i) provides robust anatomical discrimination, achieving more cohesive feature clusters compared to state-of-the-art contrastive learning methods; (ii) demonstrates superior generalization, surpassing 7 radiography-specific self-supervised methods in multi-label classification tasks with limited labeling; and (iii) integrates fine-grained information, enabling precise anomaly detection using only image-level annotations.
- Abstract(参考訳): 対照的な学習のような現在の自己監督的手法は、主にグローバルな差別に焦点を当て、正確なX線分析に必要な重要な微細な解剖学的詳細を無視している。
この課題に対処するために,画像解析における微粒化表現(AFiRe)を向上させる解剖学駆動型自己教師型フレームワークを提案する。
AFiReの中核となる考え方は、解剖学的一貫性とVision Transformerのユニークなトークン処理特性を整合させることである。
具体的には、AFiReは2つの自己管理スキームを相乗的に実行します。
一 構造的整合性及び分類的整合性に基づいて画像トークンを整列させ、きめ細かい空間解剖学的識別を向上する整合的解剖誘導学習
(II)特に局所異常に焦点を当てた画素レベルの異常除去修復を行い,詳細な幾何学的情報を用いて識別を精査する。
さらに,従来のデータ拡張(クロッピングやアフィン変換など)によって劣化がみられ,整合性を維持しつつ,解剖学的多様性を高めるための合成病変マスクを提案する。
実験の結果, AFiRe:
i) 最先端のコントラスト学習法と比較して,より凝集性の高い特徴クラスタを実現する,堅牢な解剖学的識別を提供する。
(II)ラベリングに制限のある多ラベル分類タスクにおいて,放射線写真固有の自己監督手法を7つ越え,より優れた一般化を示す。
(iii)微細な情報を統合し,画像レベルのアノテーションのみを用いた高精度な異常検出を可能にする。
関連論文リスト
- A Semi-Supervised Approach with Error Reflection for Echocardiography Segmentation [21.72866654935505]
心エコー法による半教師付きセグメンテーションアーキテクチャの誤差反射戦略を提案する。
この戦略は、未ラベル画像セグメンテーションの不正確さをモデルに反映させ、擬似ラベル生成の堅牢性を高める。
また,ラベル付き画像とラベルなし画像間の経験的分布ギャップを最小限に抑えるため,マルチスケール混合戦略と呼ばれる効果的なデータ拡張戦略を導入する。
論文 参考訳(メタデータ) (2024-12-01T07:35:09Z) - Advancing Medical Image Segmentation: Morphology-Driven Learning with Diffusion Transformer [4.672688418357066]
本稿では,雑音の存在下での頑健なセグメンテーションのためのトランスフォーマー拡散(DTS)モデルを提案する。
画像の形態的表現を解析する本モデルでは, 種々の医用画像モダリティにおいて, 従来のモデルよりも良好な結果が得られた。
論文 参考訳(メタデータ) (2024-08-01T07:35:54Z) - Introducing Shape Prior Module in Diffusion Model for Medical Image
Segmentation [7.7545714516743045]
拡散確率モデル(DDPM)を利用したVerseDiff-UNetというエンドツーエンドフレームワークを提案する。
我々のアプローチは拡散モデルを標準のU字型アーキテクチャに統合する。
本手法はX線画像から得られた脊椎画像の1つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-12T03:05:00Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Cross Chest Graph for Disease Diagnosis with Structural Relational
Reasoning [2.7148274921314615]
X線画像のコンピュータ診断において位置病変は重要である。
一般に弱教師付き手法はX線像の特性を考慮できなかった。
自動病変検出の性能を向上させるCross-chest Graph (CCG)を提案する。
論文 参考訳(メタデータ) (2021-01-22T08:24:04Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Learning to Segment Anatomical Structures Accurately from One Exemplar [34.287877547953194]
大量の注釈付きトレーニング画像を用いることなく、正確な解剖学的構造セグメンテーションを作成できる方法は、非常に望ましい。
本研究では,自然に組み込まれたループ機構を備えたワンショット解剖セグメントであるContour Transformer Network (CTN)を提案する。
筆者らのワンショット学習法は,非学習に基づく手法を著しく上回り,最先端の完全教師付きディープラーニングアプローチと競争的に機能することを示した。
論文 参考訳(メタデータ) (2020-07-06T20:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。