論文の概要: Generative Self-training for Cross-domain Unsupervised Tagged-to-Cine
MRI Synthesis
- arxiv url: http://arxiv.org/abs/2106.12499v1
- Date: Wed, 23 Jun 2021 16:19:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 17:07:31.696404
- Title: Generative Self-training for Cross-domain Unsupervised Tagged-to-Cine
MRI Synthesis
- Title(参考訳): クロスドメイン非教師付きタグ・ツー・シネMRI合成のための生成的自己学習
- Authors: Xiaofeng Liu, Fangxu Xing, Maureen Stone, Jiachen Zhuo, Reese Timothy,
Jerry L. Prince, Georges El Fakhri, Jonghye Woo
- Abstract要約: クロスドメイン画像合成のための連続値予測と回帰目標を用いた新たな自己学習フレームワークを提案する。
具体的には,疑似ラベルを不確実性マスクでフィルタリングし,実際のベイズ学習を用いて生成した画像の予測信頼度を定量化する。
- 参考スコア(独自算出の注目度): 10.636015177721635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-training based unsupervised domain adaptation (UDA) has shown great
potential to address the problem of domain shift, when applying a trained deep
learning model in a source domain to unlabeled target domains. However, while
the self-training UDA has demonstrated its effectiveness on discriminative
tasks, such as classification and segmentation, via the reliable pseudo-label
selection based on the softmax discrete histogram, the self-training UDA for
generative tasks, such as image synthesis, is not fully investigated. In this
work, we propose a novel generative self-training (GST) UDA framework with
continuous value prediction and regression objective for cross-domain image
synthesis. Specifically, we propose to filter the pseudo-label with an
uncertainty mask, and quantify the predictive confidence of generated images
with practical variational Bayes learning. The fast test-time adaptation is
achieved by a round-based alternative optimization scheme. We validated our
framework on the tagged-to-cine magnetic resonance imaging (MRI) synthesis
problem, where datasets in the source and target domains were acquired from
different scanners or centers. Extensive validations were carried out to verify
our framework against popular adversarial training UDA methods. Results show
that our GST, with tagged MRI of test subjects in new target domains, improved
the synthesis quality by a large margin, compared with the adversarial training
UDA methods.
- Abstract(参考訳): 自己学習に基づく教師なしドメイン適応(UDA)は、未ラベルのターゲットドメインに訓練されたディープラーニングモデルをソースドメインに適用する場合、ドメインシフトの問題に対処する大きな可能性を示している。
しかし、自己学習udaは、ソフトマックス離散ヒストグラムに基づく信頼性の高い疑似ラベル選択により、分類やセグメンテーションなどの判別タスクにおいて有効性を示すが、画像合成などの生成課題に対する自己学習udaは十分に研究されていない。
本稿では,連続値予測とクロスドメイン画像合成のための回帰目標を備えた新しい生成的自己学習(gst) udaフレームワークを提案する。
具体的には,疑似ラベルを不確実性マスクでフィルタリングし,生成画像の予測信頼度を実用的変動ベイズ学習で定量化する。
高速テストタイム適応はラウンドベースの代替最適化スキームによって達成される。
我々は、ソースドメインとターゲットドメインのデータセットを異なるスキャナーやセンターから取得する、タグ付き磁気共鳴画像(MRI)合成問題に関する枠組みを検証した。
一般的なUDA手法に対して,我々の枠組みを検証するため,広範囲な検証を行った。
以上の結果より,新しい対象領域の被験者のMRIをタグ付けしたGSTでは,UDA法と比較すると,合成品質が有意に向上した。
関連論文リスト
- Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - Robust Source-Free Domain Adaptation for Fundus Image Segmentation [3.585032903685044]
Unlabelled Domain Adaptation (UDA)は、ラベル付きデータから学習した知識を、未ラベルデータのみを使用してターゲットドメインに転送する学習技術である。
本研究では,ロバストドメイン適応のための2段階トレーニングステージを提案する。
本稿では,ラベルのないターゲットデータを有効利用して擬似ラベルと擬似境界を生成する,ロバストな擬似ラベルと擬似境界(PLPB)手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:25:18Z) - Attentive Continuous Generative Self-training for Unsupervised Domain
Adaptive Medical Image Translation [12.080054869408213]
本研究では,連続的な値予測と回帰目標を用いた領域適応型画像翻訳のための自己学習フレームワークを開発した。
我々は,T1-重み付きMR-屈折異方性変換を含む2つの対象間翻訳タスクの枠組みについて検討した。
論文 参考訳(メタデータ) (2023-05-23T23:57:44Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Memory Consistent Unsupervised Off-the-Shelf Model Adaptation for
Source-Relaxed Medical Image Segmentation [13.260109561599904]
非教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きヘテロジニアスターゲットドメインに学習した情報を移行するための重要なプロトコルである。
我々は、ソースドメインで訓練されたOSセグメントをターゲットドメインに適応させることにより、イメージセグメンテーションを目的とした「オフ・ザ・シェルフ(OS)」 UDA (OSUDA) を提案する。
論文 参考訳(メタデータ) (2022-09-16T13:13:50Z) - Boosting Cross-Domain Speech Recognition with Self-Supervision [35.01508881708751]
自動音声認識(ASR)のクロスドメイン性能は,トレーニングとテストのミスマッチにより著しく損なわれる可能性がある。
従来, 自己監督学習 (SSL) や擬似ラベル学習 (PL) は, 未ラベルデータの自己監督を利用してUDAに有効であることが示された。
この研究は、事前学習および微調整のパラダイムにおいて、ラベルなしデータを完全に活用する体系的なUDAフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-20T14:02:53Z) - ACT: Semi-supervised Domain-adaptive Medical Image Segmentation with
Asymmetric Co-training [34.017031149886556]
非教師なしドメイン適応(UDA)は、ソースとターゲットドメイン間のドメインシフトを軽減するために大いに研究されてきた。
本稿では,ラベル付けされていないターゲットデータに加えて,ラベル付きソースデータとターゲットドメインデータの両方を統一的に活用することを提案する。
本稿では、これらのサブセットを統合し、ソースドメインデータの支配を回避するための、新しい非対称コトレーニング(ACT)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-05T23:48:00Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Cycle Self-Training for Domain Adaptation [85.14659717421533]
Cycle Self-Training (CST) は、ドメイン間の一般化に擬似ラベルを強制する、原則付き自己学習アルゴリズムである。
CSTは目標の真理を回復し、不変の機能学習とバニラ自己訓練の両方が失敗する。
実験結果から,標準的なUDAベンチマークでは,CSTは先行技術よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2021-03-05T10:04:25Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training [55.824641135682725]
WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
論文 参考訳(メタデータ) (2020-11-26T18:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。