論文の概要: Dual Interaction Network with Cross-Image Attention for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2509.05953v1
- Date: Sun, 07 Sep 2025 07:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.793469
- Title: Dual Interaction Network with Cross-Image Attention for Medical Image Segmentation
- Title(参考訳): 医用画像セグメンテーションのためのクロスイメージアテンションを用いたデュアルインタラクションネットワーク
- Authors: Jeonghyun Noh, Wangsu Jeon, Jinsun Park,
- Abstract要約: 本稿では,原画像と拡張画像の相互補完情報を利用する対話型融合モジュール(DIFM)を提案する。
DIFMは、異なる画像にまたがる対応する空間情報に同時に対応するために、双方向に双方向にクロスアテンションを利用する。
さらに、勾配抽出に基づく多スケール境界損失を導入し、オブジェクト境界におけるセグメンテーション精度を向上させる。
- 参考スコア(独自算出の注目度): 4.804685266333253
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation is a crucial method for assisting professionals in diagnosing various diseases through medical imaging. However, various factors such as noise, blurriness, and low contrast often hinder the accurate diagnosis of diseases. While numerous image enhancement techniques can mitigate these issues, they may also alter crucial information needed for accurate diagnosis in the original image. Conventional image fusion strategies, such as feature concatenation can address this challenge. However, they struggle to fully leverage the advantages of both original and enhanced images while suppressing the side effects of the enhancements. To overcome the problem, we propose a dual interactive fusion module (DIFM) that effectively exploits mutual complementary information from the original and enhanced images. DIFM employs cross-attention bidirectionally to simultaneously attend to corresponding spatial information across different images, subsequently refining the complementary features via global spatial attention. This interaction leverages low- to high-level features implicitly associated with diverse structural attributes like edges, blobs, and object shapes, resulting in enhanced features that embody important spatial characteristics. In addition, we introduce a multi-scale boundary loss based on gradient extraction to improve segmentation accuracy at object boundaries. Experimental results on the ACDC and Synapse datasets demonstrate the superiority of the proposed method quantitatively and qualitatively. Code available at: https://github.com/JJeong-Gari/DIN
- Abstract(参考訳): 医用画像のセグメンテーションは, 様々な疾患の診断を専門医が支援するための重要な方法である。
しかし、ノイズ、ぼかし、低コントラストなどの様々な要因は、しばしば病気の正確な診断を妨げる。
多くの画像強調技術はこれらの問題を緩和することができるが、元の画像の正確な診断に必要な重要な情報を変更することもできる。
特徴連結のような従来の画像融合戦略はこの課題に対処できる。
しかし、オリジナル画像と拡張画像の両方の利点をフル活用し、拡張の副作用を抑えるのに苦労した。
この問題を解決するために,元の画像と拡張画像からの相互補完情報を効果的に活用するデュアル・インタラクティブ・フュージョン・モジュール(DIFM)を提案する。
DIFMは、異なる画像にまたがって対応する空間情報に同時に対応するために、双方向に相互注意を用いており、その後、グローバルな空間的注意を通して補完的な特徴を精査する。
この相互作用は、エッジ、ブロブ、オブジェクト形状といった様々な構造的特性に暗黙的に関連付けられた低レベルから高レベルの特徴を活用し、重要な空間的特徴を具現化している。
さらに、勾配抽出に基づく多スケール境界損失を導入し、オブジェクト境界におけるセグメンテーション精度を向上させる。
ACDCおよびSynapseデータセットの実験結果は,提案手法の定量的および定性的な優位性を実証している。
https://github.com/JJeong-Gari/DIN
関連論文リスト
- ConDSeg: A General Medical Image Segmentation Framework via Contrast-Driven Feature Enhancement [5.117018155594986]
コントラスト駆動医療画像(ConDSeg)というフレームワークを提案する。
様々な照明およびコントラストシナリオにおけるエンコーダの堅牢性を改善するように設計されている。
画像内の異なる大きさのエンティティを正確に特定し、共起特徴の誤学習を避ける。
論文 参考訳(メタデータ) (2024-12-11T12:34:49Z) - Lagrange Duality and Compound Multi-Attention Transformer for Semi-Supervised Medical Image Segmentation [27.758157788769253]
半教師付き学習における総合的な学習目標として,境界認識型コントラスト損失と統合されたラグランジュ二重性損失(LDC)を提案する。
また、ResUNetとTransformerの強みを相乗化する新しいネットワークであるCMAformerを紹介する。
以上の結果から,CMAformerは機能融合フレームワークと新たな一貫性の喪失と相まって,半教師付き学習アンサンブルにおいて強い相補性を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-09-12T06:52:46Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - AdaFuse: Adaptive Medical Image Fusion Based on Spatial-Frequential
Cross Attention [6.910879180358217]
本稿では,周波数誘導型アテンション機構によりマルチモーダル画像情報を適応的に融合させるAdaFuseを提案する。
提案手法は,視覚的品質と定量的指標の両方の観点から,最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-09T07:10:30Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature Ensemble for Multi-modality Image Fusion [68.78897015832113]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。