論文の概要: Adaptive Weighted Co-Learning for Cross-Domain Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2312.03928v1
- Date: Wed, 6 Dec 2023 22:09:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:38:47.648416
- Title: Adaptive Weighted Co-Learning for Cross-Domain Few-Shot Learning
- Title(参考訳): クロスドメインFew-Shot学習のための適応重み付き共学習
- Authors: Abdullah Alchihabi, Marzi Heidari, Yuhong Guo
- Abstract要約: クロスドメイン少ショット学習(CDFSL)は、非常に困難な適応問題を引き起こす。
適応重み付き共学習法(AWCoL)を提案し,CDFSL問題に対処する。
複数のベンチマークデータセットに対して総合的な実験を行い,提案手法が最先端のCDFSL性能を実現することを示す実証実験を行った。
- 参考スコア(独自算出の注目度): 23.615250207134004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the availability of only a few labeled instances for the novel target
prediction task and the significant domain shift between the well annotated
source domain and the target domain, cross-domain few-shot learning (CDFSL)
induces a very challenging adaptation problem. In this paper, we propose a
simple Adaptive Weighted Co-Learning (AWCoL) method to address the CDFSL
challenge by adapting two independently trained source prototypical
classification models to the target task in a weighted co-learning manner. The
proposed method deploys a weighted moving average prediction strategy to
generate probabilistic predictions from each model, and then conducts adaptive
co-learning by jointly fine-tuning the two models in an alternating manner
based on the pseudo-labels and instance weights produced from the predictions.
Moreover, a negative pseudo-labeling regularizer is further deployed to improve
the fine-tuning process by penalizing false predictions. Comprehensive
experiments are conducted on multiple benchmark datasets and the empirical
results demonstrate that the proposed method produces state-of-the-art CDFSL
performance.
- Abstract(参考訳): 新規なターゲット予測タスクのためのラベル付きインスタンスと、十分に注釈されたソースドメインとターゲットドメインの間の重要なドメインシフトが利用可能であるため、cross-domain few-shot learning (cdfsl)は、非常に困難な適応問題を引き起こす。
本稿では,cdfsl課題に対処するための簡易適応型重み付き共学習(awcol)手法を提案する。
提案手法は,各モデルから確率的予測を生成するための重み付き移動平均予測戦略を展開し,その予測から得られた擬似ラベルと例重みに基づいて,2つのモデルを相互に微調整することで適応的コラーニングを行う。
さらに、偽予測をペナルティ化することにより微調整プロセスを改善するために、負の擬似ラベル正則化器を更に配置する。
複数のベンチマークデータセットで包括的な実験を行い,提案手法が最先端のcdfsl性能を実現することを実証した。
関連論文リスト
- Source-free Semantic Regularization Learning for Semi-supervised Domain Adaptation [25.51051224329922]
半教師付きドメイン適応(SSDA)は、モデルの分類性能と一般化能力を改善する能力により、広範囲に研究されている。
意味正規化学習(SERL)と呼ばれる新しいSSDA学習フレームワークを提案する。
SERLは、正規化学習の複数の視点からターゲット意味情報をキャプチャし、ターゲットドメイン上のソース事前学習モデルの適応的な微調整を実現する。
論文 参考訳(メタデータ) (2025-01-02T07:53:02Z) - Enhanced Online Test-time Adaptation with Feature-Weight Cosine Alignment [7.991720491452191]
オンラインテスト時間適応(OTTA)は、分散シフトを扱う効果的な戦略として登場した。
本稿では,双対目的損失関数を用いたコサインアライメント最適化手法を提案する。
提案手法は最先端技術より優れ,複数のデータセットに新しいベンチマークを設定できる。
論文 参考訳(メタデータ) (2024-05-12T05:57:37Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Ensemble Modeling for Multimodal Visual Action Recognition [50.38638300332429]
マルチモーダル動作認識のためのアンサンブルモデリング手法を提案する。
我々は,MECCANO[21]データセットの長期分布を処理するために,焦点損失の変種を用いて,個別のモダリティモデルを個別に訓練する。
論文 参考訳(メタデータ) (2023-08-10T08:43:20Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - CAusal and collaborative proxy-tasKs lEarning for Semi-Supervised Domain
Adaptation [20.589323508870592]
半教師付きドメイン適応(SSDA)は、ソースドメインデータとラベル付きターゲットサンプルを効果的に活用することにより、学習者を新しいドメインに適応させる。
提案手法は,SSDAデータセットの有効性と汎用性の観点から,SOTA法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-30T16:48:28Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder [23.860842627883187]
我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
論文 参考訳(メタデータ) (2021-08-11T04:45:56Z) - Adaptive Consistency Regularization for Semi-Supervised Transfer
Learning [31.66745229673066]
我々は,半教師付き学習と移動学習を共同で検討し,より実践的で競争的なパラダイムへと導いた。
事前学習した重みとラベルなしの目標サンプルの両方の価値をよりよく活用するために、適応整合正則化を導入する。
提案手法は,Pseudo Label,Mean Teacher,MixMatchといった,最先端の半教師付き学習技術より優れた適応整合性正規化を実現する。
論文 参考訳(メタデータ) (2021-03-03T05:46:39Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。