論文の概要: One-Shot Segmentation of Novel White Matter Tracts via Extensive Data
Augmentation
- arxiv url: http://arxiv.org/abs/2303.06852v1
- Date: Mon, 13 Mar 2023 04:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:33:24.710104
- Title: One-Shot Segmentation of Novel White Matter Tracts via Extensive Data
Augmentation
- Title(参考訳): 広範囲データ拡張による新規白質路のワンショットセグメンテーション
- Authors: Wan Liu, Qi Lu, ZhiZheng Zhuo, Yaou Liu, Chuyang Ye
- Abstract要約: 深層学習法は, 自動ホワイトマター(WM)トラクションセグメンテーションの最先端性能を達成した。
これらの方法では、セグメンテーションモデルは、多数の手動のアノテートスキャンで訓練する必要がある。
本研究では,新しいWMトラクタのワンショットセグメンテーションの問題について検討する。
- 参考スコア(独自算出の注目度): 3.813608775141218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based methods have achieved state-of-the-art performance for
automated white matter (WM) tract segmentation. In these methods, the
segmentation model needs to be trained with a large number of manually
annotated scans, which can be accumulated throughout time. When novel WM
tracts, i.e., tracts not included in the existing annotated WM tracts, are to
be segmented, additional annotations of these novel WM tracts need to be
collected. Since tract annotation is time-consuming and costly, it is desirable
to make only a few annotations of novel WM tracts for training the segmentation
model, and previous work has addressed this problem by transferring the
knowledge learned for segmenting existing WM tracts to the segmentation of
novel WM tracts. However, accurate segmentation of novel WM tracts can still be
challenging in the one-shot setting, where only one scan is annotated for the
novel WM tracts. In this work, we explore the problem of one-shot segmentation
of novel WM tracts. Since in the one-shot setting the annotated training data
is extremely scarce, based on the existing knowledge transfer framework, we
propose to further perform extensive data augmentation for the single annotated
scan, where synthetic annotated training data is produced. We have designed
several different strategies that mask out regions in the single annotated scan
for data augmentation. Our method was evaluated on public and in-house
datasets. The experimental results show that our method improves the accuracy
of one-shot segmentation of novel WM tracts.
- Abstract(参考訳): 深層学習に基づく手法は, 自動ホワイトマター(WM)トラクションセグメンテーションの最先端性能を達成した。
これらの方法では、セグメンテーションモデルは、多くの手動のアノテーション付きスキャンでトレーニングする必要があります。
既存の注釈付きWMトラクトに含まれていない新規なWMトラクトがセグメンテーションされる場合、これらの新規なWMトラクトの追加アノテーションを収集する必要がある。
トラクションアノテーションは時間と費用がかかるため、セグメンテーションモデルをトレーニングするための新しいWMトラクトのアノテーションを少しだけ作成することが望ましいが、これまでの研究は、既存のWMトラクトをセグメンテーションする際の知識を新しいWMトラクトのセグメンテーションに転送することでこの問題に対処してきた。
しかし,新しいWMトラクトの正確なセグメンテーションは,新規なWMトラクトに対して1つのスキャンのみをアノテートするワンショット環境では依然として困難である。
本研究では,新しいWMトラクタのワンショットセグメンテーションの問題について検討する。
既存の知識伝達フレームワークをベースとして,注釈付きトレーニングデータのワンショット設定は極めて少ないため,合成注釈付きトレーニングデータを生成する単一アノテーション付きスキャンに対して,広範なデータ拡張を行うことを提案する。
我々は、データ拡張のための単一の注釈付きスキャンの領域を隠蔽するいくつかの異なる戦略を設計した。
提案手法は,公開および社内データセットを用いて評価した。
実験結果から,新しいWMトラクターのワンショットセグメンテーションの精度が向上することが示唆された。
関連論文リスト
- SegVG: Transferring Object Bounding Box to Segmentation for Visual Grounding [56.079013202051094]
ボックスレベルのアノテーションを信号として転送する新しい手法であるSegVGを提案する。
このアプローチでは,ボックスレベルのレグレッションとピクセルレベルのセグメンテーションの両方の信号としてアノテーションを反復的に利用することができる。
論文 参考訳(メタデータ) (2024-07-03T15:30:45Z) - Scalable and Domain-General Abstractive Proposition Segmentation [20.532804009152255]
我々は、抽象命題セグメンテーション(APS)の課題に焦点を合わせ、テキストを単純で自己完結した、よく表現された文に変換する。
まず、タスクの評価基準を導入し、いくつかの品質の次元を計測する。
次に、スケーラブルで正確な命題セグメンテーションモデルを提案する。
論文 参考訳(メタデータ) (2024-06-28T10:24:31Z) - Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - A Registration- and Uncertainty-based Framework for White Matter Tract
Segmentation With Only One Annotated Subject [16.912995753135217]
本稿では,1つの注釈付き主題のみを利用したトラクションセグメンテーション手法を提案する。
提案手法は,登録ベースピーク拡張(RPA)および不確実性ベース精製(URe)モジュールを用いて構築する。
実験の結果,本手法は,他の最先端手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-25T06:23:56Z) - A Simple Framework for Open-Vocabulary Segmentation and Detection [85.21641508535679]
我々は,異なるセグメンテーションと検出データセットから共同で学習する,シンプルなオープン語彙検出フレームワークOpenSeeDを提案する。
まず、事前学習されたテキストエンコーダを導入し、視覚概念を2つのタスクにエンコードし、それらの共通意味空間を学習する。
プレトレーニング後,本モデルでは,セグメンテーションと検出の両方において,競争力あるいは強いゼロショット転送性を示す。
論文 参考訳(メタデータ) (2023-03-14T17:58:34Z) - Longitudinal detection of new MS lesions using Deep Learning [0.0]
新たなMS病変の検出・分節作業に対処するディープラーニングベースのパイプラインについて述べる。
まず,1つの時間点を用いたセグメンテーションタスクで訓練されたモデルからの移動学習を提案する。
第2に、新しい病変を伴う現実的な縦断時間を生成するためのデータ合成戦略を提案する。
論文 参考訳(メタデータ) (2022-06-16T16:09:04Z) - Knowledge Transfer for Few-shot Segmentation of Novel White Matter
Tracts [3.6713387874278247]
拡散磁気共鳴画像(dMRI)に基づく白質(WM)トラクションセグメンテーションにおける畳み込みニューラルネットワーク(CNN)の最先端性能
これらのCNNは、一般に労働集約的でコストがかかる訓練のために、WMの関心事の多くの手作業による記述を必要とする。
本稿では,これらの知識を,いくつかの場面で新規なWMトラクツのセグメンテーションに伝達する方法について検討する。
論文 参考訳(メタデータ) (2021-05-30T11:57:41Z) - Fusing RGBD Tracking and Segmentation Tree Sampling for Multi-Hypothesis
Volumetric Segmentation [6.853379171946806]
マルチハイポテシストラッキング(MST)は,シーン変化におけるボリュームセグメンテーションの新しい手法である。
2つの主な革新により、この困難な問題に取り組むことができます。
本手法は, シミュレーションと現実のテーブルトップ環境において評価する。
論文 参考訳(メタデータ) (2021-04-01T02:17:18Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Recurrent Chunking Mechanisms for Long-Text Machine Reading
Comprehension [59.80926970481975]
機械読解(MRC)を長文で研究する。
モデルは長い文書と質問を入力として取り、回答として文書からテキストを抽出する。
我々は、モデルに強化学習を通じてより柔軟な方法でチャンクを学習させることを提案する。
論文 参考訳(メタデータ) (2020-05-16T18:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。