論文の概要: Adapting to Unseen Vendor Domains for MRI Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2108.06434v1
- Date: Sat, 14 Aug 2021 01:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 10:59:01.534962
- Title: Adapting to Unseen Vendor Domains for MRI Lesion Segmentation
- Title(参考訳): mri病変分割のためのベンダードメインへの適応
- Authors: Brandon Mac, Alan R. Moody, April Khademi
- Abstract要約: 本稿では,ソースデータセットからターゲットデータセットへのMR画像の拡張を目的とした教師なし画像翻訳モデルについて検討する。
画像間の変換、スキャナーベンダー間の変換、ラベルから画像への変換からなるデータセット間の拡張の3つの構成について検討する。
その結果、ラベルから画像構成までの合成データに基づいて訓練されたセグメンテーションモデルが、ターゲットデータセット上で直接訓練されたセグメンテーションモデルに最も近い性能を示した。
- 参考スコア(独自算出の注目度): 0.08156494881838945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the key limitations in machine learning models is poor performance on
data that is out of the domain of the training distribution. This is especially
true for image analysis in magnetic resonance (MR) imaging, as variations in
hardware and software create non-standard intensities, contrasts, and noise
distributions across scanners. Recently, image translation models have been
proposed to augment data across domains to create synthetic data points. In
this paper, we investigate the application an unsupervised image translation
model to augment MR images from a source dataset to a target dataset.
Specifically, we want to evaluate how well these models can create synthetic
data points representative of the target dataset through image translation, and
to see if a segmentation model trained these synthetic data points would
approach the performance of a model trained directly on the target dataset. We
consider three configurations of augmentation between datasets consisting of
translation between images, between scanner vendors, and from labels to images.
It was found that the segmentation models trained on synthetic data from labels
to images configuration yielded the closest performance to the segmentation
model trained directly on the target dataset. The Dice coeffcient score per
each target vendor (GE, Siemens, Philips) for training on synthetic data was
0.63, 0.64, and 0.58, compared to training directly on target dataset was 0.65,
0.72, and 0.61.
- Abstract(参考訳): 機械学習モデルにおける重要な制限の1つは、トレーニング分布の領域外にあるデータのパフォーマンスの低さである。
これは磁気共鳴(MR)イメージングにおける画像解析において特に当てはまり、ハードウェアとソフトウェアのバリエーションはスキャナー間の非標準強度、コントラスト、ノイズ分布を生成する。
近年,合成データポイントを作成するために,領域間のデータ拡張のための画像翻訳モデルが提案されている。
本稿では,ソースデータセットからターゲットデータセットへのmr画像拡張のための教師なし画像変換モデルの適用について検討する。
具体的には、画像翻訳により、これらのモデルがターゲットデータセットを表す合成データポイントをどれだけうまく作成できるかを評価し、これらの合成データポイントを訓練したセグメンテーションモデルが、ターゲットデータセット上で直接訓練されたモデルのパフォーマンスに近づくかどうかを確認する。
画像間の変換、スキャナーベンダー間、ラベルから画像への変換からなるデータセット間の拡張の3つの構成を検討する。
その結果、ラベルから画像構成までの合成データに基づいてトレーニングされたセグメンテーションモデルが、ターゲットデータセットに直接トレーニングされたセグメンテーションモデルに最も近い性能を示した。
各ターゲットベンダー(GE、Siemens、Philips)の合成データのトレーニングは0.63、0.64、0.58であり、ターゲットデータセットでのトレーニングは0.65、0.72、0.61であった。
関連論文リスト
- DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - DataDAM: Efficient Dataset Distillation with Attention Matching [15.300968899043498]
研究者たちは、さまざまなデータセットをまたいだ強力な一般化を維持することによって、ディープラーニングのトレーニングコストを最小化しようと長年努力してきた。
データセットに関する新たな研究は、より大きな実際のデータセットの情報を含む小さな合成セットを作成することで、トレーニングコストの削減を目的としている。
しかし、従来の方法で生成された合成データは、元のトレーニングデータと同様に、配布・差別することが保証されていない。
論文 参考訳(メタデータ) (2023-09-29T19:07:48Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - Generating Reliable Pixel-Level Labels for Source Free Domain Adaptation [13.913151437401472]
ReGENは、画像間翻訳ネットワークとセグメンテーションネットワークとを備える。
我々のワークフローは、元のターゲット領域画像からノイズ予測を用いてターゲットライクな画像を生成する。
論文 参考訳(メタデータ) (2023-07-03T09:44:13Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - Unsupervised Domain Adaptation with Histogram-gated Image Translation
for Delayered IC Image Analysis [2.720699926154399]
Histogram-gated Image Translation (HGIT)は、特定のソースデータセットからターゲットデータセットのドメインに変換する、教師なしのドメイン適応フレームワークである。
提案手法は,報告したドメイン適応手法と比較して最高の性能を達成し,完全教師付きベンチマークに適当に近い。
論文 参考訳(メタデータ) (2022-09-27T15:53:22Z) - Prefix Conditioning Unifies Language and Label Supervision [84.11127588805138]
学習した表現の一般化性を低減することにより,データセットのバイアスが事前学習に悪影響を及ぼすことを示す。
実験では、この単純な手法により、ゼロショット画像認識精度が向上し、画像レベルの分布シフトに対するロバスト性が向上することを示した。
論文 参考訳(メタデータ) (2022-06-02T16:12:26Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。