論文の概要: OneSeg: Self-learning and One-shot Learning based Single-slice
Annotation for 3D Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2309.13671v1
- Date: Sun, 24 Sep 2023 15:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 18:11:14.168097
- Title: OneSeg: Self-learning and One-shot Learning based Single-slice
Annotation for 3D Medical Image Segmentation
- Title(参考訳): oneseg: 自己学習とワンショット学習に基づく医用画像セグメンテーションのためのシングルスライスアノテーション
- Authors: Yixuan Wu, Bo Zheng, Jintai Chen, Danny Z. Chen, Jian Wu
- Abstract要約: 本稿では,各3次元画像の1つのスライスに注釈を付けることで,3次元医用画像セグメンテーションのための自己学習とワンショット学習に基づくフレームワークを提案する。
提案手法は,(1)3次元画像中の2次元スライス間の意味的対応を学習する再構成ネットワークの自己学習,(2)1ショット手動アノテーションのための1つのスライスの代表的選択である。
我々の新しいフレームワークは、完全に教師された手法と比較して1%未満のアノテートデータで同等のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 36.50258132379276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep learning methods continue to improve medical image segmentation
performance, data annotation is still a big bottleneck due to the
labor-intensive and time-consuming burden on medical experts, especially for 3D
images. To significantly reduce annotation efforts while attaining competitive
segmentation accuracy, we propose a self-learning and one-shot learning based
framework for 3D medical image segmentation by annotating only one slice of
each 3D image. Our approach takes two steps: (1) self-learning of a
reconstruction network to learn semantic correspondence among 2D slices within
3D images, and (2) representative selection of single slices for one-shot
manual annotation and propagating the annotated data with the well-trained
reconstruction network. Extensive experiments verify that our new framework
achieves comparable performance with less than 1% annotated data compared with
fully supervised methods and generalizes well on several out-of-distribution
testing sets.
- Abstract(参考訳): 深層学習手法が医用画像のセグメンテーション性能を向上させるにつれて,特に3d画像では,医療専門家の負担と時間のかかる負担により,データアノテーションは依然として大きなボトルネックとなっている。
競合セグメンテーションの精度を確保しつつアノテーションの労力を大幅に削減するために,各3次元画像の1つのスライスに注釈を付けることで,3次元画像セグメンテーションのための自己学習とワンショット学習に基づくフレームワークを提案する。
提案手法は,(1)3次元画像中の2次元スライス間の意味的対応を学習するための再構成ネットワークの自己学習,(2)1ショット手動アノテーションのための1つのスライスの選択,および,よく訓練された再構成ネットワークによる注釈付きデータの伝播である。
広範な実験によって、我々の新しいフレームワークは、完全な教師付きメソッドと比較して、1%未満の注釈付きデータで同等のパフォーマンスを達成し、いくつかの分散テストセットでうまく一般化できることを確認しました。
関連論文リスト
- PCDAL: A Perturbation Consistency-Driven Active Learning Approach for
Medical Image Segmentation and Classification [12.560273908522714]
監視された学習は、医用画像のアプリケーションを取得するのに費用がかかり、時間がかかり、実用的でない、大規模な注釈付きデータに大きく依存している。
アクティブラーニング(AL)手法は、アノテーションのコストを削減するために、自然な画像分類タスクに広く応用されている。
本稿では,2次元医用画像分類,セグメンテーション,および3次元医用画像分割タスクに同時に適用可能なALベースの手法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:11:46Z) - One-shot and Partially-Supervised Cell Image Segmentation Using Small
Visual Prompt [9.873635079670091]
可能な限り少ないデータで効率的な学習フレームワークを考えます。
本稿では,1つのトレーニングサンプルだけで学習できるワンショットセグメンテーションと,画像の一部にアノテーションを割り当てる部分教師付きセグメンテーションという2つのタイプの学習戦略を提案する。
提案手法では,セル画像のみに基づく事前学習モデルを用いて,プロンプトペアの情報を対象画像に教える。
論文 参考訳(メタデータ) (2023-04-17T05:04:41Z) - CLIP2Scene: Towards Label-efficient 3D Scene Understanding by CLIP [55.864132158596206]
Contrastive Language-Image Pre-Training (CLIP) は、2次元ゼロショットおよび少数ショット学習において有望な結果をもたらす。
私たちは,CLIP知識が3Dシーン理解にどう役立つか,最初の試みを行う。
筆者らは,CLIPの知識を2次元画像テキスト事前学習モデルから3次元ポイント・クラウド・ネットワークに転送するフレームワークであるCLIP2Sceneを提案する。
論文 参考訳(メタデータ) (2023-01-12T10:42:39Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Self-Paced Contrastive Learning for Semi-supervisedMedical Image
Segmentation with Meta-labels [6.349708371894538]
メタラベルアノテーションを扱うために、コントラスト学習を適用することを提案する。
画像エンコーダの事前トレーニングにはメタラベルを使用し、半教師付きトレーニングを標準化する。
3つの異なる医用画像セグメンテーションデータセットの結果から,本手法は数回のスキャンでトレーニングしたモデルの性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2021-07-29T04:30:46Z) - Cascaded Robust Learning at Imperfect Labels for Chest X-ray
Segmentation [61.09321488002978]
不完全アノテーションを用いた胸部X線分割のための新しいカスケードロバスト学習フレームワークを提案する。
モデルは3つの独立したネットワークから成り,ピアネットワークから有用な情報を効果的に学習できる。
提案手法は,従来の手法と比較して,セグメント化タスクの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-05T15:50:16Z) - Bidirectional RNN-based Few Shot Learning for 3D Medical Image
Segmentation [11.873435088539459]
対象臓器アノテーションの限られたトレーニングサンプルを用いて, 正確な臓器分類を行うための3次元ショットセグメンテーションフレームワークを提案する。
U-Netのようなネットワークは、サポートデータの2次元スライスとクエリイメージの関係を学習することでセグメンテーションを予測するように設計されている。
異なる臓器のアノテーションを付加した3つの3次元CTデータセットを用いて,提案モデルの評価を行った。
論文 参考訳(メタデータ) (2020-11-19T01:44:55Z) - Semi-supervised Semantic Segmentation of Prostate and Organs-at-Risk on
3D Pelvic CT Images [9.33145393480254]
効果的なディープラーニングモデルのトレーニングは通常、大量の高品質なラベル付きデータを必要とする。
骨盤CT画像セマンティックセグメンテーションのための半教師付き対位深層学習手法を開発した。
論文 参考訳(メタデータ) (2020-09-21T01:57:23Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。