論文の概要: Leveraging multi-view data without annotations for prostate MRI
segmentation: A contrastive approach
- arxiv url: http://arxiv.org/abs/2308.06477v2
- Date: Fri, 15 Sep 2023 09:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 17:57:10.965332
- Title: Leveraging multi-view data without annotations for prostate MRI
segmentation: A contrastive approach
- Title(参考訳): 前立腺mriセグメンテーションにおけるアノテーションなしのマルチビューデータ活用 : 対比的アプローチ
- Authors: Tim Nikolass Lindeijer, Tord Martin Ytredal, Trygve Eftest{\o}l,
Tobias Nordstr\"om, Fredrik J\"aderling, Martin Eklund and Alvaro
Fernandez-Quilez
- Abstract要約: U-Net, tU-Net (triplet U-Net) に基づくトリプルトエンコーダとシングルデコーダネットワークを提案する。
提案アーキテクチャでは,非注釈の矢状図とコロナ図を対照的な学習によって活用し,ボリュームの観点からセグメンテーションを改善することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An accurate prostate delineation and volume characterization can support the
clinical assessment of prostate cancer. A large amount of automatic prostate
segmentation tools consider exclusively the axial MRI direction in spite of the
availability as per acquisition protocols of multi-view data. Further, when
multi-view data is exploited, manual annotations and availability at test time
for all the views is commonly assumed. In this work, we explore a contrastive
approach at training time to leverage multi-view data without annotations and
provide flexibility at deployment time in the event of missing views. We
propose a triplet encoder and single decoder network based on U-Net, tU-Net
(triplet U-Net). Our proposed architecture is able to exploit non-annotated
sagittal and coronal views via contrastive learning to improve the segmentation
from a volumetric perspective. For that purpose, we introduce the concept of
inter-view similarity in the latent space. To guide the training, we combine a
dice score loss calculated with respect to the axial view and its manual
annotations together with a multi-view contrastive loss. tU-Net shows
statistical improvement in dice score coefficient (DSC) with respect to only
axial view (91.25+-0.52% compared to 86.40+-1.50%,P<.001). Sensitivity analysis
reveals the volumetric positive impact of the contrastive loss when paired with
tU-Net (2.85+-1.34% compared to 3.81+-1.88%,P<.001). Further, our approach
shows good external volumetric generalization in an in-house dataset when
tested with multi-view data (2.76+-1.89% compared to 3.92+-3.31%,P=.002),
showing the feasibility of exploiting non-annotated multi-view data through
contrastive learning whilst providing flexibility at deployment in the event of
missing views.
- Abstract(参考訳): 正確な前立腺郭清と量的特徴付けは、前立腺癌の臨床的評価を支援することができる。
多視点データの取得プロトコルとして利用可能なにもかかわらず、多数の自動前立腺分割ツールは、軸方向のMRI方向のみを考慮に入れている。
さらに、マルチビューデータを利用する場合、すべてのビューに対する手動アノテーションとテスト時の可用性が一般的に仮定される。
本研究では,アノテーションを使わずにマルチビューデータを活用するためのトレーニング時の対比的アプローチを検討し,ビュー不足時にデプロイ時に柔軟性を提供する。
U-Net, tU-Net (triplet U-Net) に基づくトリプルトエンコーダとシングルデコーダネットワークを提案する。
提案するアーキテクチャは,音量的観点からのセグメンテーション改善のためのコントラスト学習を通じて,非注釈的矢状およびコロナビューを活用できる。
そこで我々は,潜在空間におけるビュー間類似性の概念を導入する。
トレーニングを指導するために、軸方向のビューと手動のアノテーションに対して計算されたサイススコアの損失と、マルチビューのコントラッシブ・ロスとを組み合わせる。
tU-Netは、軸方向(86.40+-1.50%、P<.001)のみに対するダイススコア係数(DSC)の統計的改善を示す。
感度分析は、tU-Netと組み合わせた場合の対向損失の体積的正の影響(3.81+-1.88%,P<.001)を明らかにする。
さらに,マルチビューデータを用いた場合 (3.92+-3.31%,P=.002) に比較して2.76+-1.89%) , コントラスト学習による非アノテーション付きマルチビューデータの活用の可能性を示した。
関連論文リスト
- Affinity-Graph-Guided Contractive Learning for Pretext-Free Medical Image Segmentation with Minimal Annotation [55.325956390997]
本稿では,医用画像セグメンテーションのための親和性グラフ誘導半教師付きコントラスト学習フレームワーク(Semi-AGCL)を提案する。
このフレームワークは、まず、ロバストな初期特徴空間を提供する平均パッチエントロピー駆動のパッチ間サンプリング法を設計する。
完全アノテーションセットの10%に過ぎず, 完全注釈付きベースラインの精度にアプローチし, 限界偏差は2.52%に過ぎなかった。
論文 参考訳(メタデータ) (2024-10-14T10:44:47Z) - Symmetric Graph Contrastive Learning against Noisy Views for Recommendation [7.92181856602497]
本稿では, 対称性理論をグラフのコントラスト学習に適用し, ノイズ干渉に耐性のある対称形式とコントラスト損失を提案する。
我々のアプローチは、他の9つの競合モデルに比べて、相対的な改善が最大12.25%に達することによって、推奨精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-03T06:58:07Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Anatomy-Aware Contrastive Representation Learning for Fetal Ultrasound [17.91546880972773]
解剖学的認識型コントラスト学習(AWCL)による医用画像の視覚的表現の改善を提案する。
AWCLは解剖情報を組み込んで、正/負のペアサンプリングを対照的な学習方法で増強する。
大規模な胎児超音波データセットを用いた実験では、3つの臨床的下流課題によく伝達される表現の学習に有効であることが示された。
論文 参考訳(メタデータ) (2022-08-22T22:49:26Z) - Towards Explainable End-to-End Prostate Cancer Relapse Prediction from
H&E Images Combining Self-Attention Multiple Instance Learning with a
Recurrent Neural Network [0.0]
本稿では,がん再発予測ネットワーク(eCaReNet)を提案する。
本モデルでは,患者1人当たりのリスクスコアとグループだけでなく,生存曲線も良好に評価し,出力する。
論文 参考訳(メタデータ) (2021-11-26T11:45:08Z) - Latent Correlation-Based Multiview Learning and Self-Supervision: A
Unifying Perspective [41.80156041871873]
この研究は、教師なしのマルチビュー学習のための理論支援フレームワークを提供する。
私たちの開発は、各ビューが共有コンポーネントとプライベートコンポーネントの非線形混合であるマルチビューモデルの提案から始まります。
さらに、各ビュー内のプライベート情報を適切な正規化設計を用いて共有から確実に切り離すことができる。
論文 参考訳(メタデータ) (2021-06-14T00:12:36Z) - Unsupervised Learning on Monocular Videos for 3D Human Pose Estimation [121.5383855764944]
コントラッシブな自己教師学習を用いて、シングルビュービデオからリッチな潜伏ベクトルを抽出する。
また,CSSを時間変化の特徴のみに適用すると同時に,入力を再構築し,近辺と遠方の特徴間の段階的な遷移を促すことにより,リッチな潜伏空間が得られることを示す。
本手法は他の教師なしシングルビュー手法よりも優れており,マルチビュー手法の性能と一致している。
論文 参考訳(メタデータ) (2020-12-02T20:27:35Z) - Anonymization of labeled TOF-MRA images for brain vessel segmentation
using generative adversarial networks [0.9854633436173144]
GAN(Generative Adversarial Network)は、予測特性を保持しながら、匿名画像を提供する可能性がある。
画像ラベル生成のための磁気共鳴血管造影 (MRA) パッチを用いて, 飛行時間(TOF)で3GANを訓練した。
各GANから生成された画像ラベルは、セグメント化のためのU-netのトレーニングに使用され、実際のデータでテストされた。
論文 参考訳(メタデータ) (2020-09-09T11:30:58Z) - User-Guided Domain Adaptation for Rapid Annotation from User
Interactions: A Study on Pathological Liver Segmentation [49.96706092808873]
マスクベースの医用画像のアノテーション、特に3Dデータは、信頼できる機械学習モデルを開発する上でボトルネックとなる。
ユーザガイド付きドメイン適応(UGDA)フレームワークを提案する。このフレームワークは,UIとマスクの複合分布をモデル化するために,予測に基づくドメイン適応(PADA)を利用する。
UGDAは、利用可能なUIのごく一部しか見ていない場合でも、最先端のパフォーマンスを維持することができる。
論文 参考訳(メタデータ) (2020-09-05T04:24:58Z) - Semi-Automatic Data Annotation guided by Feature Space Projection [117.9296191012968]
本稿では,適切な特徴空間投影と半教師付きラベル推定に基づく半自動データアノテーション手法を提案する。
MNISTデータセットとヒト腸内寄生虫の胎児不純物の有無による画像を用いて本手法の有効性を検証した。
この結果から,人間と機械の相補的能力を組み合わせた視覚分析ツールの付加価値が,より効果的な機械学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-07-27T17:03:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。