論文の概要: Discrepancy-Based Active Learning for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2103.03757v1
- Date: Fri, 5 Mar 2021 15:36:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:46:12.891174
- Title: Discrepancy-Based Active Learning for Domain Adaptation
- Title(参考訳): ドメイン適応のための離散型アクティブラーニング
- Authors: Antoine de Mathelin, Mathilde Mougeot, Nicolas Vayatis
- Abstract要約: この論文の目的は、ドメインシフトの仮定の下でドメイン適応につながるアクティブな学習戦略を設計することである。
一般損失関数に対するラデマッハ平均と局所偏差の観点から,このようなアクティブ学習戦略の境界を導出する。
大規模データセットの場合に対処するために,アルゴリズムの改良版を提供する。
- 参考スコア(独自算出の注目度): 7.283533791778357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of the paper is to design active learning strategies which lead to
domain adaptation under an assumption of domain shift in the case of Lipschitz
labeling function. Building on previous work by Mansour et al. (2009) we adapt
the concept of discrepancy distance between source and target distributions to
restrict the maximization over the hypothesis class to a localized class of
functions which are performing accurate labeling on the source domain. We
derive generalization error bounds for such active learning strategies in terms
of Rademacher average and localized discrepancy for general loss functions
which satisfy a regularity condition. Practical algorithms are inferred from
the theoretical bounds, one is based on greedy optimization and the other is a
K-medoids algorithm. We also provide improved versions of the algorithms to
address the case of large data sets. These algorithms are competitive against
other state-of-the-art active learning techniques in the context of domain
adaptation as shown in our numerical experiments, in particular on large data
sets of around one hundred thousand images.
- Abstract(参考訳): この論文の目的は、Lipschitzラベリング機能の場合、ドメインシフトの仮定の下でドメイン適応につながるアクティブな学習戦略を設計することである。
mansourらによる以前の作品の制作。
(2009) 仮説クラス上の最大化を制限するために, ソースとターゲット分布の差分距離の概念を, ソース領域上で正確なラベル付けを行う関数の局所化クラスに適応する。
正規性条件を満たす一般損失関数に対するラデマッハ平均と局所偏差の観点から,そのようなアクティブラーニング戦略の一般化誤差境界を導出する。
実用的アルゴリズムは理論的な境界から推定され、1つは勾配最適化に基づいており、もう1つはK-メドロイドアルゴリズムである。
また,大規模データセットのケースに対処するアルゴリズムの改良版も提供する。
これらのアルゴリズムは、我々の数値実験で示されているように、ドメイン適応の文脈における他の最先端のアクティブな学習技術、特に約10万の画像の大規模なデータセットと競合する。
関連論文リスト
- Domain Adversarial Active Learning for Domain Generalization
Classification [8.003401798449337]
ドメイン一般化モデルは、ソースドメインデータからクロスドメイン知識を学び、未知のターゲットドメインの性能を改善することを目的としている。
近年の研究では、多種多様なソース・ドメイン・サンプルがドメインの一般化能力を高めることが示されている。
そこで本研究では,ドメイン一般化における分類タスクに対するDAAL(Domain-adversarial Active Learning)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-10T10:59:22Z) - Domain-aware Triplet loss in Domain Generalization [0.0]
ドメインシフトは、テストとトレーニングデータの分布の相違によって引き起こされる。
ドメイン一般化のためのドメイン認識三重項損失を設計し、モデルが類似のセマンティックな特徴をクラスタリングするのを助ける。
本アルゴリズムは,埋め込み空間におけるドメイン情報を分散するように設計されている。
論文 参考訳(メタデータ) (2023-03-01T14:02:01Z) - Domain Adaptation via Rebalanced Sub-domain Alignment [22.68115322836635]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから関連するラベル付きターゲットドメインへ知識を転送する手法である。
過去に多くのUDA手法が成功したが、ソースとターゲットドメインは同一のクラスラベルの分布を持つ必要があると仮定することが多い。
本稿では、ソースとターゲットサブドメインを整列させて、ソース分類誤差を重み付けする新しい一般化法を提案する。
論文 参考訳(メタデータ) (2023-02-03T21:30:40Z) - Algorithms and Theory for Supervised Gradual Domain Adaptation [19.42476993856205]
本研究では, 学習者に対して, 学習経路に沿った変化分布からラベル付きデータを利用できるようにするための, 教師付き段階的領域適応の課題について検討する。
この設定の下では、軽度な仮定の下で学習誤差に関する最初の一般化上限を提供する。
本研究の結果は, 損失関数の範囲に依存しないアルゴリズムであり, 軌道上の平均学習誤差にのみ依存する。
論文 参考訳(メタデータ) (2022-04-25T13:26:11Z) - f-Domain-Adversarial Learning: Theory and Algorithms [82.97698406515667]
教師なしのドメイン適応は、トレーニング中、ターゲットドメイン内のラベルなしデータにアクセス可能な、多くの機械学習アプリケーションで使用されている。
領域適応のための新しい一般化法を導出し、f-発散体の変分的特徴に基づく分布間の相違性の新しい尺度を利用する。
論文 参考訳(メタデータ) (2021-06-21T18:21:09Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - A Theory of Label Propagation for Subpopulation Shift [61.408438422417326]
ラベル伝搬に基づくドメイン適応のための有効なフレームワークを提案する。
アルゴリズム全体でエンドツーエンドの有限サンプル保証を得る。
理論的なフレームワークを、第3のラベルなしデータセットに基づいたソースからターゲットへの転送のより一般的な設定に拡張します。
論文 参考訳(メタデータ) (2021-02-22T17:27:47Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z) - Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation [13.163271874039191]
本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
本稿では,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
論文 参考訳(メタデータ) (2020-02-03T06:24:58Z) - Domain Adaptation: Learning Bounds and Algorithms [80.85426994513541]
本稿では,任意の損失関数を持つ適応問題に適した分布距離,差分距離を新たに導入する。
広い損失関数族に対する領域適応のための新しい一般化境界を導出する。
また、正規化に基づくアルゴリズムの大規模クラスに対する新しい適応境界も提示する。
論文 参考訳(メタデータ) (2009-02-19T18:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。