論文の概要: Voxel-level Siamese Representation Learning for Abdominal Multi-Organ
Segmentation
- arxiv url: http://arxiv.org/abs/2105.07672v1
- Date: Mon, 17 May 2021 08:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:43:35.848194
- Title: Voxel-level Siamese Representation Learning for Abdominal Multi-Organ
Segmentation
- Title(参考訳): 腹部多臓器分節に対するVoxel-level Siamese Representation Learning
- Authors: Chae Eun Lee, Minyoung Chung, Yeong-Gil Shin
- Abstract要約: 腹部マルチオルガンセグメンテーションのための新しいボクセルレベルシアーム表現学習法を提案する。
提案手法は,限られたデータセットをより包括的に活用するために,表現空間におけるvoxel-wise特徴関係を強制する。
本実験はDiceスコア係数において既存手法よりも2%高い性能を示した。
- 参考スコア(独自算出の注目度): 4.341575452368516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works in medical image segmentation have actively explored various
deep learning architectures or objective functions to encode high-level
features from volumetric data owing to limited image annotations. However, most
existing approaches tend to ignore cross-volume global context and define
context relations in the decision space. In this work, we propose a novel
voxel-level Siamese representation learning method for abdominal multi-organ
segmentation to improve representation space. The proposed method enforces
voxel-wise feature relations in the representation space for leveraging limited
datasets more comprehensively to achieve better performance. Inspired by recent
progress in contrastive learning, we suppressed voxel-wise relations from the
same class to be projected to the same point without using negative samples.
Moreover, we introduce a multi-resolution context aggregation method that
aggregates features from multiple hidden layers, which encodes both the global
and local contexts for segmentation. Our experiments on the multi-organ dataset
outperformed the existing approaches by 2% in Dice score coefficient. The
qualitative visualizations of the representation spaces demonstrate that the
improvements were gained primarily by a disentangled feature space.
- Abstract(参考訳): 医用画像セグメンテーションにおける最近の研究は、画像アノテーションの制限によるボリュームデータから高レベルの特徴をエンコードするために、様々なディープラーニングアーキテクチャや目的関数を積極的に探求している。
しかし、既存のほとんどのアプローチは、クロスボリュームなグローバルコンテキストを無視し、意思決定空間におけるコンテキスト関係を定義する傾向にある。
本研究では,腹部多臓器分割のための新しいボクセルレベルのシムセ表現学習法を提案し,表現空間を改良する。
提案手法は,限られたデータセットをより包括的に活用し,よりよい性能を実現するために,表現空間におけるvoxel-wise特徴関係を強制する。
近年のコントラスト学習の進展に触発されて,同じクラスからボクセル回りの関係を否定的なサンプルを用いずに同じ地点に投影することを抑制した。
さらに,複数の隠蔽層から特徴を集約するマルチレゾリューションコンテキストアグリゲーション手法を導入し,セグメント化のためのグローバルコンテキストとローカルコンテキストの両方を符号化する。
本実験はDiceスコア係数において既存手法よりも2%高い性能を示した。
表現空間の質的な視覚化は、主に不整形特徴空間によって改善が得られたことを示す。
関連論文リスト
- Multi-Grained Contrast for Data-Efficient Unsupervised Representation Learning [10.630297877530614]
教師なし表現学習のための新しいマルチグラインドコントラスト法(MGC)を提案する。
具体的には、ポジティブビュー間の微妙な多重粒度対応を構築し、その上で、対応によって多粒度コントラストを行い、より一般的な教師なし表現を学習する。
提案手法は,オブジェクト検出,インスタンスセグメンテーション,シーン解析,セマンティックセグメンテーション,キーポイント検出など,広範囲なダウンストリームタスクにおいて,既存の最先端手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-02T07:35:21Z) - Generalizable Entity Grounding via Assistance of Large Language Model [77.07759442298666]
本稿では,長いキャプションから密接な視覚的実体を抽出する手法を提案する。
本研究では,意味代名詞の抽出に大規模なマルチモーダルモデル,エンティティレベルのセグメンテーションを生成するクラス-aセグメンテーションモデル,および各セグメンテーション名詞と対応するセグメンテーションマスクを関連付けるマルチモーダル特徴融合モジュールを利用する。
論文 参考訳(メタデータ) (2024-02-04T16:06:05Z) - Semantics-Aware Dynamic Localization and Refinement for Referring Image
Segmentation [102.25240608024063]
画像の参照は、言語表現からのイメージセグメントを参照する。
そこで我々は,局所化中心からセグメンテーション言語へ移行するアルゴリズムを開発した。
比較すると,本手法はより汎用的で有効である。
論文 参考訳(メタデータ) (2023-03-11T08:42:40Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Voxel-wise Adversarial Semi-supervised Learning for Medical Image
Segmentation [4.489713477369384]
医用画像セグメンテーションのための新しい対向学習に基づく半教師付きセグメンテーション手法を提案する。
本手法では,複数の階層から局所的特徴とグローバルな特徴を埋め込んで,複数のクラス間のコンテキスト関係を学習する。
左心房(シングルクラス)とマルチオーガニックデータセット(マルチクラス)のイメージセグメンテーションにおける、最先端の半教師あり学習手法よりも優れています。
論文 参考訳(メタデータ) (2022-05-14T06:57:19Z) - Multi-scale and Cross-scale Contrastive Learning for Semantic
Segmentation [5.281694565226513]
セグメンテーションネットワークによって抽出されたマルチスケール特徴の識別能力を高めるために,コントラスト学習を適用した。
まず、エンコーダのマルチスケール表現を共通の特徴空間にマッピングすることにより、教師付き局所言語制約の新しい形式をインスタンス化する。
論文 参考訳(メタデータ) (2022-03-25T01:24:24Z) - SATS: Self-Attention Transfer for Continual Semantic Segmentation [50.51525791240729]
連続的なセマンティックセグメンテーションは、連続的な分類学習と同じ破滅的な忘れの問題に悩まされる。
本研究では,各画像内の要素間の関係について,知識に関連する新しいタイプの情報伝達を提案する。
関係情報は、トランスフォーマースタイルのセグメンテーションモデルにおける自己アテンションマップから有効に得ることができる。
論文 参考訳(メタデータ) (2022-03-15T06:09:28Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Momentum Contrastive Voxel-wise Representation Learning for
Semi-supervised Volumetric Medical Image Segmentation [2.3322477552758234]
医用画像セグメンテーションのためのグローバルな視覚表現を学習するための幾何学的制約付きコントラストVoxel-wise Representation(CVRL)法を提案する。
このフレームワークは,3次元空間的コンテキストと豊かな解剖学的情報をキャプチャすることで,グローバルおよびローカルな特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2021-05-14T20:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。