論文の概要: DARNet: Bridging Domain Gaps in Cross-Domain Few-Shot Segmentation with
Dynamic Adaptation
- arxiv url: http://arxiv.org/abs/2312.04813v1
- Date: Fri, 8 Dec 2023 03:03:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:13:10.004259
- Title: DARNet: Bridging Domain Gaps in Cross-Domain Few-Shot Segmentation with
Dynamic Adaptation
- Title(参考訳): DARNet:動的適応を伴うクロスドメインFewショットセグメンテーションにおけるブリッジングドメインギャップ
- Authors: Haoran Fan, Qi Fan, Maurice Pagnucco, Yang Song
- Abstract要約: Few-shot segmentation (FSS) は、ベースクラスからの少数のサポートイメージを使用することで、新しいクラスをクエリイメージにセグメントすることを目的としている。
クロスドメイン FSS では、リソース制約のあるドメインにラベルに富んだドメインの機能を活用することで、ドメインの相違による課題が生じる。
本研究は,CD-FSSの一般化と特異性を両立するDARNet法を提案する。
- 参考スコア(独自算出の注目度): 20.979759016826378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot segmentation (FSS) aims to segment novel classes in a query image by
using only a small number of supporting images from base classes. However, in
cross-domain few-shot segmentation (CD-FSS), leveraging features from
label-rich domains for resource-constrained domains poses challenges due to
domain discrepancies. This work presents a Dynamically Adaptive Refine (DARNet)
method that aims to balance generalization and specificity for CD-FSS. Our
method includes the Channel Statistics Disruption (CSD) strategy, which
perturbs feature channel statistics in the source domain, bolstering
generalization to unknown target domains. Moreover, recognizing the variability
across target domains, an Adaptive Refine Self-Matching (ARSM) method is also
proposed to adjust the matching threshold and dynamically refine the prediction
result with the self-matching method, enhancing accuracy. We also present a
Test-Time Adaptation (TTA) method to refine the model's adaptability to diverse
feature distributions. Our approach demonstrates superior performance against
state-of-the-art methods in CD-FSS tasks.
- Abstract(参考訳): Few-shot segmentation (FSS) は、ベースクラスからの少数のサポートイメージを使用することで、新しいクラスをクエリイメージにセグメントすることを目的としている。
しかし、ラベルに富んだドメインからリソース制約のあるドメインに機能を活用したクロスドメインのショットセグメンテーション(CD-FSS)では、ドメインの相違による課題が生じる。
本研究は,CD-FSSの一般化と特異性を両立するDARNet法を提案する。
提案手法は,ソース領域のチャネル統計を乱し,未知のターゲット領域への一般化を促進するChannel Statistics Disruption(CSD)戦略を含む。
さらに,対象領域にまたがる可変性を認識した適応精錬自己マッチング(arsm)法も提案し,マッチング閾値を調整し,予測結果を動的に自己マッチング法で精錬し,精度を向上させる。
また,様々な特徴分布に対するモデルの適応性を向上させるためのテスト時間適応法(tta)を提案する。
本手法は,CD-FSSタスクにおける最先端手法に対する優れた性能を示す。
関連論文リスト
- Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation [72.70876977882882]
臨床応用においては、トレーニング画像(ソース領域)とテスト画像(ターゲット領域)が異なる分布下にある場合、ドメインシフトは一般的な問題である。
本稿では,Few-Shot Unsupervised Domain Adaptation (FSUDA) の新たな手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T16:02:01Z) - Adaptive Semantic Consistency for Cross-domain Few-shot Classification [27.176106714652327]
クロスドメイン・ショット分類(CD-FSC)は、いくつかのサンプルを用いて新規なターゲットクラスを特定することを目的としている。
本稿では,ドメイン間の堅牢性を向上する,シンプルなプラグアンドプレイ適応セマンティック一貫性フレームワークを提案する。
提案したASCは、ソースドメインの知識を明示的に伝達することで、モデルがターゲットドメインに過度に適合しないようにする。
論文 参考訳(メタデータ) (2023-08-01T15:37:19Z) - Dynamic Domain Discrepancy Adjustment for Active Multi-Domain Adaptation [3.367755441623275]
マルチソースアン教師付きドメイン適応(MUDA)は、関連するソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
アクティブマルチドメイン適応(D3AAMDA)のための動的ドメイン不一致適応法(Dynamic Domain Disrepancy Adjustment)を提案する。
このメカニズムは、ソースドメインとターゲットドメイン間の特徴のアライメントレベルを制御し、ソースドメイン内のローカルな有利な特徴情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-07-26T09:40:19Z) - Conditional Support Alignment for Domain Adaptation with Label Shift [8.819673391477034]
アンラベルド・ドメイン適応(アンラベルド・ドメイン・アダプティブ、Unlabelled Domain adapt、UDA)とは、学習モデルを、ソース・ドメインのラベル付きサンプルと対象ドメインの教師なしサンプルに基づいて訓練するドメイン適応フレームワークである。
本稿では,対象領域の特徴表現分布に対する条件対称的サポートのばらつきを最小限に抑えることを目的とした,新しい条件逆サポートアライメント(CASA)を提案する。
論文 参考訳(メタデータ) (2023-05-29T05:20:18Z) - Self-training through Classifier Disagreement for Cross-Domain Opinion
Target Extraction [62.41511766918932]
オピニオンターゲット抽出(OTE)またはアスペクト抽出(AE)は意見マイニングの基本的な課題である。
最近の研究は、現実世界のシナリオでよく見られるクロスドメインのOTEに焦点を当てている。
そこで本稿では,ドメイン固有の教師と学生のネットワークから出力されるモデルが未学習のターゲットデータと一致しない対象サンプルを選択するためのSSLアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:31:17Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Semi-Supervised Domain Adaptation via Adaptive and Progressive Feature
Alignment [32.77436219094282]
SSDASはラベル付きターゲットサンプルを、ラベル付きソースサンプルとラベルなしターゲットサンプルの間に適応的かつプログレッシブな特徴アライメントのためのアンカーとして採用している。
さらに、反復学習過程において、異種音源の特徴を高信頼目標特徴に置き換える。
広範な実験により、提案されたSSDASは、多くのベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2021-06-05T09:12:50Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Adapt Everywhere: Unsupervised Adaptation of Point-Clouds and Entropy
Minimisation for Multi-modal Cardiac Image Segmentation [10.417009344120917]
マルチモーダル心臓画像分割のための新しいUDA法を提案する。
提案手法は、逆学習に基づいて、異なる空間におけるソースとターゲットドメイン間のネットワーク特徴を適応する。
本手法はannotated source domainからunannotated target domainへの適応により2つの心データセットで検証した。
論文 参考訳(メタデータ) (2021-03-15T08:59:44Z) - Cross-Domain Grouping and Alignment for Domain Adaptive Semantic
Segmentation [74.3349233035632]
深層畳み込みニューラルネットワーク(CNN)内のソースドメインとターゲットドメインにセマンティックセグメンテーションネットワークを適用する既存の技術は、対象ドメイン自身や推定カテゴリ内のクラス間変異を考慮していない。
学習可能なクラスタリングモジュールと、クロスドメイングルーピングとアライメントと呼ばれる新しいドメイン適応フレームワークを導入する。
本手法はセマンティクスセグメンテーションにおける適応性能を一貫して向上させ,様々なドメイン適応設定において最先端を上回っている。
論文 参考訳(メタデータ) (2020-12-15T11:36:21Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。