論文の概要: AttenScribble: Attentive Similarity Learning for Scribble-Supervised
Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2312.06614v1
- Date: Mon, 11 Dec 2023 18:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:35:29.520548
- Title: AttenScribble: Attentive Similarity Learning for Scribble-Supervised
Medical Image Segmentation
- Title(参考訳): AttenScribble: Scribble-Supervised Medical Image Segmentationのための注意的類似性学習
- Authors: Mu Tian, Qinzhu Yang, Yi Gao
- Abstract要約: 本稿では,単純かつ効果的なスクリブル教師あり学習フレームワークを提案する。
我々は、任意の完全畳み込みネットワーク(FCN)バックボーンの内部特徴層の上に、接続可能な空間自己アテンションモジュールを作成する。
この注意深い類似性は、セグメンテーション予測と視覚親和性の一貫性を課する新たな正規化損失をもたらす。
- 参考スコア(独自算出の注目度): 5.8447004333496855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of deep networks in medical image segmentation relies heavily on
massive labeled training data. However, acquiring dense annotations is a
time-consuming process. Weakly-supervised methods normally employ less
expensive forms of supervision, among which scribbles started to gain
popularity lately thanks to its flexibility. However, due to lack of shape and
boundary information, it is extremely challenging to train a deep network on
scribbles that generalizes on unlabeled pixels. In this paper, we present a
straightforward yet effective scribble supervised learning framework. Inspired
by recent advances of transformer based segmentation, we create a pluggable
spatial self-attention module which could be attached on top of any internal
feature layers of arbitrary fully convolutional network (FCN) backbone. The
module infuses global interaction while keeping the efficiency of convolutions.
Descended from this module, we construct a similarity metric based on
normalized and symmetrized attention. This attentive similarity leads to a
novel regularization loss that imposes consistency between segmentation
prediction and visual affinity. This attentive similarity loss optimizes the
alignment of FCN encoders, attention mapping and model prediction. Ultimately,
the proposed FCN+Attention architecture can be trained end-to-end guided by a
combination of three learning objectives: partial segmentation loss, a
customized masked conditional random fields and the proposed attentive
similarity loss. Extensive experiments on public datasets (ACDC and CHAOS)
showed that our framework not just out-performs existing state-of-the-art, but
also delivers close performance to fully-supervised benchmark. Code will be
available upon publication.
- Abstract(参考訳): 医療画像分割におけるディープネットワークの成功は、大量のラベル付きトレーニングデータに大きく依存している。
しかし、密集アノテーションの取得には時間がかかる。
弱い教師の手法は通常、より安価な監督形式を用いるが、その柔軟性により、最近はスクリブルが人気を集め始めた。
しかし、形状や境界情報がないため、ラベルなしのピクセルに一般化するクリブル上でディープネットワークを訓練することは極めて困難である。
本稿では,単純かつ効果的なスクリブル教師あり学習フレームワークを提案する。
近年の変圧器ベースセグメンテーションの進歩に触発されて,任意の完全畳み込みネットワーク(FCN)バックボーンの任意の内部特徴層上に,接続可能な空間自己保持モジュールを作成した。
このモジュールは、畳み込みの効率を保ちながら、グローバルな相互作用を注入する。
このモジュールから脱却し、正規化および対称性化された注意に基づく類似度計量を構築する。
この注意深い類似性は、セグメンテーション予測と視覚親和性の一貫性を課す新しい正規化損失をもたらす。
この注意的類似性損失は、FCNエンコーダのアライメント、アテンションマッピング、モデル予測を最適化する。
最終的に、提案したFCN+Attentionアーキテクチャは、部分的なセグメンテーション損失、カスタマイズされたマスク付き条件付きランダムフィールド、提案された注意的類似性損失の3つの学習目標の組み合わせで、エンドツーエンドで学習することができる。
公開データセット(ACDCとCHAOS)に関する大規模な実験は、我々のフレームワークが既存の最先端技術を上回るだけでなく、完全に監督されたベンチマークに密なパフォーマンスを提供することを示した。
コードは出版時に公開される。
関連論文リスト
- ResCLIP: Residual Attention for Training-free Dense Vision-language Inference [27.551367463011008]
CLIPの非最終層における自己注意の相互相関も局在特性を示す。
本稿では, 中間層からの相互相関自己アテンションを利用して, 最終ブロックの注意を再認識するResidual Cross-correlation Self-attention (RCS) モジュールを提案する。
RCSモジュールは空間情報を効果的に再構成し、高密度視覚言語推論のためのCLIP内の局在電位を解放する。
論文 参考訳(メタデータ) (2024-11-24T14:14:14Z) - Unifying and Personalizing Weakly-supervised Federated Medical Image
Segmentation via Adaptive Representation and Aggregation [1.121358474059223]
フェデレートラーニング(FL)は、データプライバシとセキュリティを損なうことなく、複数のサイトが協力して強力なディープモデルをトレーニングすることを可能にする。
微粒な監督を施した弱く監督されたセグメンテーションは、アノテーションコストを下げる大きな可能性を秘めているため、ますます注目されている。
医用画像セグメンテーションのための新しいFLフレームワークであるFedICRAを提案する。
論文 参考訳(メタデータ) (2023-04-12T06:32:08Z) - Data Augmentation-free Unsupervised Learning for 3D Point Cloud
Understanding [61.30276576646909]
ソフトクラスタリング(SoftClu)と呼ばれる,移動可能な点レベルの特徴を学習するための,ポイントクラウドに対する拡張不要な教師なしアプローチを提案する。
我々は,クラスタに対するポイントのアフィリエイトをプロキシとして利用し,擬似ラベル予測タスクを通じて自己学習を可能にする。
論文 参考訳(メタデータ) (2022-10-06T10:18:16Z) - FV-UPatches: Enhancing Universality in Finger Vein Recognition [0.6299766708197883]
限られたデータで学習しながら一般化を実現するユニバーサルラーニングベースのフレームワークを提案する。
提案フレームワークは、他の静脈ベースの生体認証にも応用可能性を示す。
論文 参考訳(メタデータ) (2022-06-02T14:20:22Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Semi-supervised Left Atrium Segmentation with Mutual Consistency
Training [60.59108570938163]
3次元MR画像からの半教師付き左房分割のための新しいMultual Consistency Network(MC-Net)を提案する。
我々のMC-Netは1つのエンコーダと2つのわずかに異なるデコーダから構成されており、2つのデコーダの予測誤差は教師なしの損失として変換される。
我々は,公開左心房(la)データベース上でmc-netを評価し,ラベルなしデータを効果的に活用することで印象的な性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-04T09:34:32Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Learning and Exploiting Interclass Visual Correlations for Medical Image
Classification [30.88175218665726]
本稿では、クラス相関学習ネットワーク(CCL-Net)を提案し、与えられたトレーニングデータからクラス間の視覚的相関を学習する。
ネットワークが望ましい相関関係を直接学習させる代わりに,クラス固有の埋め込みの距離メートル法学習を通じて暗黙的に学習することを提案する。
相関関係の幾何学的説明に基づく直感的損失は、クラス間の相関関係の学習を促進するために設計されている。
論文 参考訳(メタデータ) (2020-07-13T13:31:38Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。