論文の概要: Attentive Continuous Generative Self-training for Unsupervised Domain
Adaptive Medical Image Translation
- arxiv url: http://arxiv.org/abs/2305.14589v1
- Date: Tue, 23 May 2023 23:57:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 21:08:45.044684
- Title: Attentive Continuous Generative Self-training for Unsupervised Domain
Adaptive Medical Image Translation
- Title(参考訳): 教師なし領域適応型医用画像翻訳のための注意的連続生成自己学習
- Authors: Xiaofeng Liu, Jerry L. Prince, Fangxu Xing, Jiachen Zhuo, Reese
Timothy, Maureen Stone, Georges El Fakhri, Jonghye Woo
- Abstract要約: 本研究では,連続的な値予測と回帰目標を用いた領域適応型画像翻訳のための自己学習フレームワークを開発した。
我々は,T1-重み付きMR-屈折異方性変換を含む2つの対象間翻訳タスクの枠組みについて検討した。
- 参考スコア(独自算出の注目度): 12.080054869408213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-training is an important class of unsupervised domain adaptation (UDA)
approaches that are used to mitigate the problem of domain shift, when applying
knowledge learned from a labeled source domain to unlabeled and heterogeneous
target domains. While self-training-based UDA has shown considerable promise on
discriminative tasks, including classification and segmentation, through
reliable pseudo-label filtering based on the maximum softmax probability, there
is a paucity of prior work on self-training-based UDA for generative tasks,
including image modality translation. To fill this gap, in this work, we seek
to develop a generative self-training (GST) framework for domain adaptive image
translation with continuous value prediction and regression objectives.
Specifically, we quantify both aleatoric and epistemic uncertainties within our
GST using variational Bayes learning to measure the reliability of synthesized
data. We also introduce a self-attention scheme that de-emphasizes the
background region to prevent it from dominating the training process. The
adaptation is then carried out by an alternating optimization scheme with
target domain supervision that focuses attention on the regions with reliable
pseudo-labels. We evaluated our framework on two cross-scanner/center,
inter-subject translation tasks, including tagged-to-cine magnetic resonance
(MR) image translation and T1-weighted MR-to-fractional anisotropy translation.
Extensive validations with unpaired target domain data showed that our GST
yielded superior synthesis performance in comparison to adversarial training
UDA methods.
- Abstract(参考訳): 自己学習は、ラベル付きソースドメインから学習した知識をラベル付きおよび不均一なターゲットドメインに適用する際に、ドメインシフトの問題を軽減するために使用される、教師なしドメイン適応(UDA)アプローチの重要なクラスである。
自己学習に基づくUDAは、最大ソフトマックス確率に基づく信頼度の高い擬似ラベルフィルタリングを通じて、分類やセグメンテーションを含む差別的なタスクにかなりの可能性を示してきたが、画像モダリティ変換を含む生成タスクのための自己学習ベースのUDAには、先行研究の欠如がある。
このギャップを埋めるため,本研究では,連続値予測と回帰目標を用いた,ドメイン適応画像翻訳のための生成的自己学習(gst)フレームワークの開発を目指す。
具体的には,合成データの信頼性を定量的に評価するために,変分ベイズ学習を用いてGST内のアレータリックな不確実性を定量化する。
また,背景領域の強調を損なうセルフアテンションスキームを導入し,トレーニングプロセスの支配を防止する。
適応は、疑似ラベルを持つ領域に注意を集中するターゲットドメインの監督を含む交互最適化スキームによって実行される。
T1-weighted MR-to-fractional anisotropy translation, T1-weighted MR-to-flactional anisotropy translationを含む2つの対象間翻訳タスクについて検討した。
対象領域の未整備データによる広範囲な検証の結果,GSTはUDA法と比較して優れた合成性能を示した。
関連論文リスト
- Memory Consistent Unsupervised Off-the-Shelf Model Adaptation for
Source-Relaxed Medical Image Segmentation [13.260109561599904]
非教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きヘテロジニアスターゲットドメインに学習した情報を移行するための重要なプロトコルである。
我々は、ソースドメインで訓練されたOSセグメントをターゲットドメインに適応させることにより、イメージセグメンテーションを目的とした「オフ・ザ・シェルフ(OS)」 UDA (OSUDA) を提案する。
論文 参考訳(メタデータ) (2022-09-16T13:13:50Z) - Source-free Unsupervised Domain Adaptation for Blind Image Quality
Assessment [20.28784839680503]
既存の学習ベースのブラインド画像品質評価法(BIQA)は、大量の注釈付きトレーニングデータに大きく依存している。
本稿では,ソースフリーな非教師付きドメイン適応(SFUDA)への第一歩を,シンプルで効率的な方法で進める。
本稿では、BNアフィンパラメータのターゲット領域への適応を導くための、十分に設計された自己教師対象のグループを示す。
論文 参考訳(メタデータ) (2022-07-17T09:42:36Z) - Boosting Cross-Domain Speech Recognition with Self-Supervision [35.01508881708751]
自動音声認識(ASR)のクロスドメイン性能は,トレーニングとテストのミスマッチにより著しく損なわれる可能性がある。
従来, 自己監督学習 (SSL) や擬似ラベル学習 (PL) は, 未ラベルデータの自己監督を利用してUDAに有効であることが示された。
この研究は、事前学習および微調整のパラダイムにおいて、ラベルなしデータを完全に活用する体系的なUDAフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-20T14:02:53Z) - Boosting Unsupervised Domain Adaptation with Soft Pseudo-label and
Curriculum Learning [19.903568227077763]
教師なしドメイン適応(UDA)は、完全にラベル付けされたソースドメインからのデータを活用することにより、ラベル付けされていないターゲットドメインの分類性能を向上させる。
ソフトな擬似ラベル戦略を用いてモデル予測の欠陥を大幅に低減するモデルに依存しない2段階学習フレームワークを提案する。
第2段階では,2つのドメインの損失間の重み付けを適応的に制御するカリキュラム学習戦略を提案する。
論文 参考訳(メタデータ) (2021-12-03T14:47:32Z) - Generative Self-training for Cross-domain Unsupervised Tagged-to-Cine
MRI Synthesis [10.636015177721635]
クロスドメイン画像合成のための連続値予測と回帰目標を用いた新たな自己学習フレームワークを提案する。
具体的には,疑似ラベルを不確実性マスクでフィルタリングし,実際のベイズ学習を用いて生成した画像の予測信頼度を定量化する。
論文 参考訳(メタデータ) (2021-06-23T16:19:00Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Cycle Self-Training for Domain Adaptation [85.14659717421533]
Cycle Self-Training (CST) は、ドメイン間の一般化に擬似ラベルを強制する、原則付き自己学習アルゴリズムである。
CSTは目標の真理を回復し、不変の機能学習とバニラ自己訓練の両方が失敗する。
実験結果から,標準的なUDAベンチマークでは,CSTは先行技術よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2021-03-05T10:04:25Z) - Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training [55.824641135682725]
WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
論文 参考訳(メタデータ) (2020-11-26T18:51:26Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z) - Structured Domain Adaptation with Online Relation Regularization for
Unsupervised Person Re-ID [62.90727103061876]
Unsupervised Domain adapt(UDA)は、ラベル付きソースドメインデータセットでトレーニングされたモデルを、ラベルなしのターゲットドメインデータセットに適応させることを目的としている。
本稿では,オンライン関係整合性正規化項を用いたエンドツーエンドなドメイン適応フレームワークを提案する。
提案手法は,複数のUDAタスクにおける人物再IDの最先端性能を実現することを目的としている。
論文 参考訳(メタデータ) (2020-03-14T14:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。