論文の概要: Gradual Fine-Tuning with Graph Routing for Multi-Source Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2411.07185v1
- Date: Mon, 11 Nov 2024 17:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:11:29.532261
- Title: Gradual Fine-Tuning with Graph Routing for Multi-Source Unsupervised Domain Adaptation
- Title(参考訳): マルチソース非教師付きドメイン適応のためのグラフルーティングによる経時的微調整
- Authors: Yao Ma, Samuel Louvan, Zhunxuan Wang,
- Abstract要約: マルチソースアン教師付きドメイン適応は、機械学習モデルをトレーニングするために、複数のソースドメインからのラベル付きデータを活用することを目的としている。
複数のソースドメイン上の機械学習モデルの段階的微調整(GFT)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.125509132300994
- License:
- Abstract: Multi-source unsupervised domain adaptation aims to leverage labeled data from multiple source domains for training a machine learning model to generalize well on a target domain without labels. Source domain selection plays a crucial role in determining the model's performance. It relies on the similarities amongst source and target domains. Nonetheless, existing work for source domain selection often involves heavyweight computational procedures, especially when dealing with numerous source domains and the need to identify the best ones from them. In this paper, we introduce a framework for gradual fine tuning (GFT) of machine learning models on multiple source domains. We represent multiple source domains as an undirected weighted graph. We then give a new generalization error bound for GFT along any path within the graph, which is used to determine the optimal path corresponding to the optimal training order. With this formulation, we introduce three lightweight graph-routing strategies which tend to minimize the error bound. Our best strategy improves $2.3\%$ of accuracy over the state-of-the-art on Natural Language Inference (NLI) task and achieves competitive performance on Sentiment Analysis (SA) task, especially a $3.9\%$ improvement on a more diverse subset of data we use for SA.
- Abstract(参考訳): マルチソースアン教師付きドメイン適応は、複数のソースドメインからのラベル付きデータを活用して、マシンラーニングモデルをトレーニングし、ラベルなしでターゲットドメインをうまく一般化することを目的としている。
ソースドメインの選択は、モデルの性能を決定する上で重要な役割を果たす。
ソースドメインとターゲットドメイン間の類似性に依存する。
それでも、ソースドメイン選択のための既存の作業は、特に多くのソースドメインを扱う場合や、それらから最高のドメインを識別する必要がある場合、重厚な計算手順を伴うことが多い。
本稿では,複数のソースドメイン上の機械学習モデルの段階的微調整(GFT)フレームワークを提案する。
我々は、複数のソースドメインを無向重み付きグラフとして表現する。
次に、グラフ内の任意の経路に沿ってGFTに対して新しい一般化誤差を与える。
この定式化により、エラー境界を最小限に抑える3つの軽量グラフルーティング戦略を導入する。
我々のベストストラテジーは、自然言語推論(NLI)タスクの最先端よりも2.3\%の精度を改善し、特にSAで使用するデータのより多様なサブセットに対する3.9\%の改善を含む、センチメント分析(SA)タスクの競争性能を達成する。
関連論文リスト
- Multi-source Unsupervised Domain Adaptation on Graphs with Transferability Modeling [35.39202826643388]
本稿では、グラフモデリングに基づくドメインセレクタ、サブグラフノードセレクタ、およびバイレベルアライメント目的を備えた、グラフのためのSelective Multi-source Adaptation for Graph(method)を提案する。
5つのグラフデータセットの結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-14T22:05:21Z) - Noisy Universal Domain Adaptation via Divergence Optimization for Visual
Recognition [30.31153237003218]
ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する、Noisy UniDAという新しいシナリオが提案されている。
ノイズUniDAで直面するすべての課題に同時に対処するために、マルチヘッド畳み込みニューラルネットワークフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-20T14:18:38Z) - Improving Multi-Domain Generalization through Domain Re-labeling [31.636953426159224]
本稿では,事前特定ドメインラベルと一般化性能の関連性について検討する。
マルチドメイン一般化のための一般的なアプローチであるMulDEnsを導入し,ERMをベースとした深層アンサンブルバックボーンを用いた。
我々は、MulDEnsがデータセット固有の拡張戦略やトレーニングプロセスの調整を必要としないことを示す。
論文 参考訳(メタデータ) (2021-12-17T23:21:50Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Learning Domain-invariant Graph for Adaptive Semi-supervised Domain
Adaptation with Few Labeled Source Samples [65.55521019202557]
ドメイン適応は、ソースドメインからモデルを一般化して、関連するが異なるターゲットドメインのタスクに取り組むことを目的としています。
従来のドメイン適応アルゴリズムは、事前知識として扱われる十分なラベル付きデータがソースドメインで利用できると仮定する。
少数のラベル付きソースサンプルを用いたドメイン適応のためのドメイン不変グラフ学習(DGL)手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T08:13:25Z) - Multi-source Attention for Unsupervised Domain Adaptation [15.900069711477542]
ソース選択をアテンション学習問題としてモデル化し、特定のターゲットインスタンスのソースに対してアテンションを学習する。
この目的のために、まずソース固有の分類モデルと、ソースとターゲットドメイン間の関連性マップを独立に学習する。
次に、ソース固有のモデルの予測を集約するソースについて、注目度を学習する。
論文 参考訳(メタデータ) (2020-04-14T15:51:02Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。