論文の概要: Dispensed Transformer Network for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2110.14944v1
- Date: Thu, 28 Oct 2021 08:27:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-30 04:34:49.695246
- Title: Dispensed Transformer Network for Unsupervised Domain Adaptation
- Title(参考訳): 教師なしドメイン適応のための分散トランスネットワーク
- Authors: Yunxiang Li, Jingxiong Li, Ruilong Dan, Shuai Wang, Kai Jin, Guodong
Zeng, Jun Wang, Xiangji Pan, Qianni Zhang, Huiyu Zhou, Qun Jin, Li Wang, Yaqi
Wang
- Abstract要約: 本稿では,新しい非教師付き領域適応 (UDA) 方式であるディスペンデントトランスフォーマーネットワーク (DTNet) について述べる。
提案するネットワークは,いくつかの最先端技術と比較して,最高の性能を実現している。
- 参考スコア(独自算出の注目度): 21.256375606219073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate segmentation is a crucial step in medical image analysis and
applying supervised machine learning to segment the organs or lesions has been
substantiated effective. However, it is costly to perform data annotation that
provides ground truth labels for training the supervised algorithms, and the
high variance of data that comes from different domains tends to severely
degrade system performance over cross-site or cross-modality datasets. To
mitigate this problem, a novel unsupervised domain adaptation (UDA) method
named dispensed Transformer network (DTNet) is introduced in this paper. Our
novel DTNet contains three modules. First, a dispensed residual transformer
block is designed, which realizes global attention by dispensed interleaving
operation and deals with the excessive computational cost and GPU memory usage
of the Transformer. Second, a multi-scale consistency regularization is
proposed to alleviate the loss of details in the low-resolution output for
better feature alignment. Finally, a feature ranking discriminator is
introduced to automatically assign different weights to domain-gap features to
lessen the feature distribution distance, reducing the performance shift of two
domains. The proposed method is evaluated on large fluorescein angiography (FA)
retinal nonperfusion (RNP) cross-site dataset with 676 images and a wide used
cross-modality dataset from the MM-WHS challenge. Extensive results demonstrate
that our proposed network achieves the best performance in comparison with
several state-of-the-art techniques.
- Abstract(参考訳): 正確なセグメンテーションは、医療画像解析において重要なステップであり、臓器や病変のセグメンテーションに教師あり機械学習を適用することは効果的である。
しかし、教師付きアルゴリズムをトレーニングするための根拠真理ラベルを提供するデータアノテーションを実行するのはコストがかかり、異なるドメインから来るデータの分散度が高いため、クロスサイトやクロスモダリティデータセットよりもシステムパフォーマンスが著しく低下する傾向がある。
そこで本稿では,この問題を解決するために,unsupervised domain adaptation (uda) method, dispensed transformer network (dtnet)を提案する。
私たちの新しいDTNetには3つのモジュールがあります。
まず, インターリーブ操作によるグローバルな注目度を実現し, 過大な計算コストとGPUメモリ使用量に対処する残差変圧器ブロックを設計する。
第二に、低解像度出力における詳細の損失を軽減し、機能アライメントを改善するため、マルチスケールの整合性正規化を提案する。
最後に、異なる重みをドメインギャップ特徴に自動的に割り当てて特徴分布距離を小さくし、2つのドメインのパフォーマンスシフトを低減する特徴ランキング判別器を導入する。
提案手法は676枚の画像とMM-WHSチャレンジから得られた広範囲なクロスモダリティデータセットを用いて,大型フルオレセイン血管造影(FA)網膜非灌流(RNP)クロスサイトデータセットを用いて評価した。
広範な結果から,提案ネットワークは最先端技術と比較し,最高の性能を得ることができた。
関連論文リスト
- Cross-Dataset Adaptation for Instrument Classification in Cataract
Surgery Videos [54.1843419649895]
特定のデータセットでこのタスクをうまく実行する最先端モデルでは、別のデータセットでテストすると、パフォーマンスが低下する。
本稿では,Barlow Adaptorと呼ばれる新しいエンドツーエンドのUnsupervised Domain Adaptation (UDA)手法を提案する。
さらに,BFAL(Barlow Feature Alignment Loss)と呼ばれる,異なるドメインにまたがる特徴を整列させる新たな損失を導入する。
論文 参考訳(メタデータ) (2023-07-31T18:14:18Z) - Safe Self-Refinement for Transformer-based Domain Adaptation [73.8480218879]
Unsupervised Domain Adaptation (UDA)は、ラベル豊富なソースドメインを活用して、関連するラベルのないターゲットドメイン上のタスクを解決することを目的としている。
特にソースとターゲットドメインの間に大きなドメインギャップがある場合、これは難しい問題です。
SSRT (Safe Self-Refinement for Transformer-based domain adaptation) という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-04-16T00:15:46Z) - TDACNN: Target-domain-free Domain Adaptation Convolutional Neural
Network for Drift Compensation in Gas Sensors [6.451060076703026]
本稿では,ターゲットドメインレスドメイン適応畳み込みニューラルネットワーク(TDACNN)に基づくディープラーニングを提案する。
主な概念は、CNNがサンプルのドメイン固有の特徴を抽出するだけでなく、ソースドメインとターゲットドメインの両方の基礎となるドメイン不変の特徴も抽出することである。
異なる設定下でドリフトする2つのデータセットの実験は、いくつかの最先端手法と比較してTDACNNの優位性を示している。
論文 参考訳(メタデータ) (2021-10-14T16:30:17Z) - CADA: Multi-scale Collaborative Adversarial Domain Adaptation for
Unsupervised Optic Disc and Cup Segmentation [3.587294308501889]
CADA(Collaborative Adrial Domain Adaptation)と呼ばれる新しい教師なしドメイン適応フレームワークを提案する。
提案するCADAは,異なるネットワーク層における対角学習とアンサンブル重みの両面から,対話的な協調的適応を示すパラダイムである。
マルチスケールな入力学習を取り入れたCADAモデルは、性能劣化を克服し、最先端のドメイン適応手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-10-05T23:44:26Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Unsupervised Domain Adaptation for Retinal Vessel Segmentation with
Adversarial Learning and Transfer Normalization [22.186070895966022]
本稿では,ソースドメインとターゲットドメイン間の分布差を低減するために,エントロピーに基づく逆学習戦略を提案する。
ディープネットワークの転送性をさらに向上するために,新しい転送正規化層を提案する。
我々の手法は、他の最先端手法と比較して大きな性能向上をもたらす。
論文 参考訳(メタデータ) (2021-08-04T02:45:37Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Unsupervised Instance Segmentation in Microscopy Images via Panoptic
Domain Adaptation and Task Re-weighting [86.33696045574692]
病理組織像における教師なし核分割のためのCycle Consistency Panoptic Domain Adaptive Mask R-CNN(CyC-PDAM)アーキテクチャを提案する。
まず,合成画像中の補助的な生成物を除去するための核塗布機構を提案する。
第二に、ドメイン識別器を持つセマンティックブランチは、パンプトレベルのドメイン適応を実現するように設計されている。
論文 参考訳(メタデータ) (2020-05-05T11:08:26Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。