論文の概要: Joint Imaging-ROI Representation Learning via Cross-View Contrastive Alignment for Brain Disorder Classification
- arxiv url: http://arxiv.org/abs/2603.10253v1
- Date: Tue, 10 Mar 2026 22:14:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.708049
- Title: Joint Imaging-ROI Representation Learning via Cross-View Contrastive Alignment for Brain Disorder Classification
- Title(参考訳): 脳障害分類のためのクロスビューコントラストアライメントを用いた共同画像-ROI表現学習
- Authors: Wei Liang, Lifang He,
- Abstract要約: 本稿では,共同画像-ROI表現学習のためのクロスビュー・コントラッシブ・フレームワークを提案する。
提案手法は,主題レベルのグローバル(画像)とローカル(ROIグラフ)の埋め込みを学習し,それらを共有潜在空間に整列させる。
ADHD-200とABIDEデータセットの実験は、共同学習が一貫して分類性能を改善することを示した。
- 参考スコア(独自算出の注目度): 13.749675574071873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain imaging classification is commonly approached from two perspectives: modeling the full image volume to capture global anatomical context, or constructing ROI-based graphs to encode localized and topological interactions. Although both representations have demonstrated independent efficacy, their relative contributions and potential complementarity remain insufficiently understood. Existing fusion approaches are typically task-specific and do not enable controlled evaluation of each representation under consistent training settings. To address this gap, we propose a unified cross-view contrastive framework for joint imaging-ROI representation learning. Our method learns subject-level global (imaging) and local (ROI-graph) embeddings and aligns them in a shared latent space using a bidirectional contrastive objective, encouraging representations from the same subject to converge while separating those from different subjects. This alignment produces comparable embeddings suitable for downstream fusion and enables systematic evaluation of imaging-only, ROI-only, and joint configurations within a unified training protocol. Extensive experiments on the ADHD-200 and ABIDE datasets demonstrate that joint learning consistently improves classification performance over either branch alone across multiple backbone choices. Moreover, interpretability analyses reveal that imaging-based and ROI-based branches emphasize distinct yet complementary discriminative patterns, explaining the observed performance gains. These findings provide principled evidence that explicitly integrating global volumetric and ROI-level representations is a promising direction for neuroimaging-based brain disorder classification. The source code is available at https://anonymous.4open.science/r/imaging-roi-contrastive-152C/.
- Abstract(参考訳): 脳画像分類は、大域解剖学的文脈を捉えるために全画像ボリュームをモデル化するか、局所的および位相的相互作用を符号化するためにROIベースのグラフを構築するという2つの視点から一般的にアプローチされている。
どちらの表現も独立した効果を示したが、それらの相対的な寄与と潜在的な相補性は未だ十分に理解されていない。
既存の融合アプローチは、通常タスク固有であり、一貫したトレーニング設定の下で各表現の制御された評価を可能にしない。
このギャップに対処するため,共同画像-ROI表現学習のためのクロスビュー・コントラッシブ・フレームワークを提案する。
提案手法は,対象のグローバルな(画像)とローカルな(ROIグラフ)の埋め込みを学習し,双方向のコントラスト的目的を用いて共有潜在空間に配置し,同一対象からの表現の収束を奨励し,異なる対象を分離する。
このアライメントは、下流融合に適した埋め込みを生成し、統合トレーニングプロトコル内で画像のみ、ROIのみ、および関節構成の体系的な評価を可能にする。
ADHD-200データセットとABIDEデータセットの大規模な実験により、ジョイントラーニングは複数のバックボーン選択にまたがって、いずれかのブランチ単独での分類性能を一貫して改善することを示した。
さらに、解釈可能性分析により、画像ベースおよびROIベースの分岐は、観察された性能向上を説明することで、相補的な識別パターンを際立たせることが明らかとなった。
これらの知見は、グローバルボリュームとROIレベルの表現を明示的に統合することが、神経画像に基づく脳障害の分類において有望な方向であることを示す。
ソースコードはhttps://anonymous.4open.science/r/imaging-roi-contrastive-152C/で公開されている。
関連論文リスト
- Brain-IT: Image Reconstruction from fMRI via Brain-Interaction Transformer [6.890296061697977]
ブレインIT(Brain-IT)は、fMRI脳波記録からの画像再構成に脳に触発されたアプローチである。
すべてのモデルコンポーネントは、すべてのクラスタとサブジェクトで共有され、限られた量のデータで効率的なトレーニングを可能にします。
新しい被験者からの1時間のfMRIデータだけで、全40時間記録で訓練された現在の方法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2025-10-29T21:21:54Z) - Anatomical Structure-Guided Medical Vision-Language Pre-training [21.68719061251635]
医用視覚表現を学習するための解剖学的構造ガイド(ASG)フレームワークを提案する。
解剖学的領域に対しては,放射線技師と協調して自動解剖学的領域文アライメントパラダイムを設計する。
画像の特徴を各サンプル内の各タグに関連付けるために,画像タグ認識デコーダを適用して画像タグとみなす。
論文 参考訳(メタデータ) (2024-03-14T11:29:47Z) - Symmetrical Bidirectional Knowledge Alignment for Zero-Shot Sketch-Based
Image Retrieval [69.46139774646308]
本稿ではゼロショットスケッチベース画像検索(ZS-SBIR)の問題点について検討する。
目に見えないカテゴリのスケッチをクエリとして使用して、同じカテゴリのイメージにマッチさせることが目的だ。
ゼロショットスケッチに基づく画像検索(SBKA)のための新しい対称双方向知識アライメントを提案する。
論文 参考訳(メタデータ) (2023-12-16T04:50:34Z) - A2V: A Semi-Supervised Domain Adaptation Framework for Brain Vessel Segmentation via Two-Phase Training Angiography-to-Venography Translation [4.452428104996953]
画像の異なる脳血管セグメンテーションのための半教師付きドメイン適応フレームワークを提案する。
本フレームワークは,注釈付血管造影と限られた数の血管造影に頼り,画像から画像への翻訳とセマンティックセグメンテーションを実現する。
論文 参考訳(メタデータ) (2023-09-12T09:12:37Z) - Stain based contrastive co-training for histopathological image analysis [61.87751502143719]
本稿では,ヒストリボリューション画像の分類のための,新しい半教師付き学習手法を提案する。
我々は、半教師付き学習フレームワークを作成するために、パッチレベルのアノテーションと、新しいコトレーニング損失を併用した強力な監視を採用する。
透明細胞腎細胞および前立腺癌に対するアプローチを評価し,最先端の半教師あり学習法の改善を実証した。
論文 参考訳(メタデータ) (2022-06-24T22:25:31Z) - ScoreNet: Learning Non-Uniform Attention and Augmentation for
Transformer-Based Histopathological Image Classification [11.680355561258427]
高解像度画像はデジタル病理の進歩を妨げる。
パッチベースの処理は、しばしば複数のインスタンス学習(MIL)を組み込んで、画像レベルの予測をもたらす局所的なパッチレベルの表現を集約する。
本稿では,組織像分類に適したトランスフォーマーアーキテクチャを提案する。
局所的なきめ細かな注意と粗いグローバルな注意機構を組み合わせることで、高解像度画像の意味的な表現を効率的な計算コストで学習する。
論文 参考訳(メタデータ) (2022-02-15T16:55:09Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。