論文の概要: DCSM 2.0: Deep Conditional Shape Models for Data Efficient Segmentation
- arxiv url: http://arxiv.org/abs/2407.00186v1
- Date: Fri, 28 Jun 2024 18:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 06:00:32.407864
- Title: DCSM 2.0: Deep Conditional Shape Models for Data Efficient Segmentation
- Title(参考訳): DCSM 2.0:データ効率の良いセグメンテーションのための深部条件形状モデル
- Authors: Athira J Jacob, Puneet Sharma, Daniel Rueckert,
- Abstract要約: 本稿では,エッジ検出器とエッジマップ上に条件付けされた暗黙の形状関数を用いて,モード間の形状情報を活用するDeep Conditional Shape Models 2.0を紹介する。
エッジ検出段階で使用するトレーニングデータの量を変化させることで,対象領域におけるデータ効率を実証する。
トレーニングデータの2%(22巻)しか使用していない場合、平均表面距離は最大5%、平均表面距離は2.58mm、ハウスドルフ距離は21.02mmである。
- 参考スコア(独自算出の注目度): 11.532639713283226
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Segmentation is often the first step in many medical image analyses workflows. Deep learning approaches, while giving state-of-the-art accuracies, are data intensive and do not scale well to low data regimes. We introduce Deep Conditional Shape Models 2.0, which uses an edge detector, along with an implicit shape function conditioned on edge maps, to leverage cross-modality shape information. The shape function is trained exclusively on a source domain (contrasted CT) and applied to the target domain of interest (3D echocardiography). We demonstrate data efficiency in the target domain by varying the amounts of training data used in the edge detection stage. We observe that DCSM 2.0 outperforms the baseline at all data levels in terms of Hausdorff distances, and while using 50% or less of the training data in terms of average mesh distance, and at 10% or less of the data with the dice coefficient. The method scales well to low data regimes, with gains of up to 5% in dice coefficient, 2.58 mm in average surface distance and 21.02 mm in Hausdorff distance when using just 2% (22 volumes) of the training data.
- Abstract(参考訳): セグメンテーションは、多くの医療画像分析ワークフローにおける最初のステップであることが多い。
ディープラーニングのアプローチは、最先端のアキュラシーを提供する一方で、データ集約であり、低レベルのデータレシエーションには適していない。
本稿では,エッジ検出器とエッジマップ上に条件付けされた暗黙の形状関数を用いて,モード間の形状情報を活用するDeep Conditional Shape Models 2.0を紹介する。
形状関数は、ソース領域(造影CT)にのみ訓練され、対象領域の関心領域(3D心エコー図)に適用される。
エッジ検出段階で使用するトレーニングデータの量を変化させることで,対象領域におけるデータ効率を実証する。
平均メッシュ距離ではトレーニングデータの50%以下であり,ダイス係数では10%以下である。
トレーニングデータの2%(22巻)しか使用していない場合、平均表面距離は最大5%、平均表面距離は2.58mm、ハウスドルフ距離は21.02mmである。
関連論文リスト
- CameraHMR: Aligning People with Perspective [54.05758012879385]
モノクロ画像からの正確な3次元ポーズと形状推定の課題に対処する。
既存のトレーニングデータセットには、擬似基底真理(pGT)を持つ実画像が含まれている。
pGTの精度を向上させる2つの貢献をしている。
論文 参考訳(メタデータ) (2024-11-12T19:12:12Z) - A Novel Adaptive Fine-Tuning Algorithm for Multimodal Models: Self-Optimizing Classification and Selection of High-Quality Datasets in Remote Sensing [46.603157010223505]
マルチモーダル大モデルに対する適応的な微調整アルゴリズムを提案する。
我々は、GeoChatマルチモーダルリモートセンシングデータセットの3分の1を使用して、2台の3090 GPU上でモデルをトレーニングする。
このモデルはUCMercedおよびAID評価データセットで89.86と77.19のスコアを得た。
論文 参考訳(メタデータ) (2024-09-20T09:19:46Z) - DiffusionEngine: Diffusion Model is Scalable Data Engine for Object
Detection [41.436817746749384]
Diffusion Modelはオブジェクト検出のためのスケーラブルなデータエンジンである。
DiffusionEngine(DE)は、高品質な検出指向のトレーニングペアを単一のステージで提供する。
論文 参考訳(メタデータ) (2023-09-07T17:55:01Z) - Exploring Data Redundancy in Real-world Image Classification through
Data Selection [20.389636181891515]
ディープラーニングモデルはトレーニングに大量のデータを必要とすることが多く、結果としてコストが増大する。
実世界の画像データの冗長性を調べるために,シナプスインテリジェンスと勾配ノルムに基づく2つのデータ評価指標を提案する。
オンラインおよびオフラインのデータ選択アルゴリズムは、検査されたデータ値に基づいてクラスタリングとグループ化によって提案される。
論文 参考訳(メタデータ) (2023-06-25T03:31:05Z) - Delving Deeper into Data Scaling in Masked Image Modeling [145.36501330782357]
視覚認識のためのマスク付き画像モデリング(MIM)手法のスケーリング能力に関する実証的研究を行った。
具体的には、Webで収集したCoyo-700Mデータセットを利用する。
我々のゴールは、データとモデルのサイズの異なるスケールでダウンストリームタスクのパフォーマンスがどのように変化するかを調べることです。
論文 参考訳(メタデータ) (2023-05-24T15:33:46Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - Model-based inexact graph matching on top of CNNs for semantic scene
understanding [6.106023882846558]
セマンティックセグメンテーションのためのディープラーニングパイプラインは、トレーニングに使用される注釈付きイメージで利用できる構造情報を無視することが多い。
本稿では,関心対象の構造的知識を付加した新しい後処理モジュールを提案し,セグメンテーション結果を改善する。
私たちのアプローチは、ディープラーニングメソッドのパフォーマンスを制限している小さなトレーニングデータセットに耐性があることが示されています。
論文 参考訳(メタデータ) (2023-01-18T12:23:10Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Manifold Topology Divergence: a Framework for Comparing Data Manifolds [109.0784952256104]
本研究では,深部生成モデルの評価を目的としたデータ多様体の比較フレームワークを開発する。
クロスバーコードに基づき,manifold Topology Divergence score(MTop-Divergence)を導入する。
MTop-Divergenceは,様々なモードドロップ,モード内崩壊,モード発明,画像乱れを正確に検出する。
論文 参考訳(メタデータ) (2021-06-08T00:30:43Z) - Sketch and Scale: Geo-distributed tSNE and UMAP [75.44887265789056]
地理的に分散したデータセット上で機械学習分析を実行することは、急速に発生する問題である。
私たちはSketch and Scale(SnS)という新しいフレームワークを紹介します。
これはCount Sketchデータ構造を利用して、エッジノード上のデータを圧縮し、マスターノード上の縮小サイズスケッチを集約し、サマリ上でバニラtSNEまたはUMAPを実行する。
我々は、この技術が完全に並列で、線形に時間にスケールし、メモリに対数的に分散し、通信し、世界中の複数のデータセンターにまたがる数百万、数十億のデータポイントでデータセットを解析できることを示す。
論文 参考訳(メタデータ) (2020-11-11T22:32:21Z) - A Bayesian-inspired, deep learning-based, semi-supervised domain
adaptation technique for land cover mapping [4.167265971166947]
Sourcererは、SITSデータから土地被覆マップを作成するための半教師付きDA技術である。
ソースドメインでトレーニングされた畳み込みニューラルネットワークを使用して、利用可能なターゲットドメインをさらにトレーニングする。
Sourcererは、利用可能なラベル付きターゲットデータに対して、他のすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2020-05-25T05:36:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。