論文の概要: Balanced Direction from Multifarious Choices: Arithmetic Meta-Learning for Domain Generalization
- arxiv url: http://arxiv.org/abs/2503.18987v1
- Date: Sun, 23 Mar 2025 08:24:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:52:57.660935
- Title: Balanced Direction from Multifarious Choices: Arithmetic Meta-Learning for Domain Generalization
- Title(参考訳): 多言語選択からのバランスの取れた方向:ドメインの一般化のための算術的メタラーニング
- Authors: Xiran Wang, Jian Zhang, Lei Qi, Yinghuan Shi,
- Abstract要約: 分散シフトに対処するために、ドメインの一般化を提案する。
1次メタ学習アルゴリズムはドメインの一般化に強い性能を示す。
算術重み付き勾配を用いた単純かつ効果的な算術メタラーニングを提案する。
- 参考スコア(独自算出の注目度): 24.74033121160655
- License:
- Abstract: Domain generalization is proposed to address distribution shift, arising from statistical disparities between training source and unseen target domains. The widely used first-order meta-learning algorithms demonstrate strong performance for domain generalization by leveraging the gradient matching theory, which aims to establish balanced parameters across source domains to reduce overfitting to any particular domain. However, our analysis reveals that there are actually numerous directions to achieve gradient matching, with current methods representing just one possible path. These methods actually overlook another critical factor that the balanced parameters should be close to the centroid of optimal parameters of each source domain. To address this, we propose a simple yet effective arithmetic meta-learning with arithmetic-weighted gradients. This approach, while adhering to the principles of gradient matching, promotes a more precise balance by estimating the centroid between domain-specific optimal parameters. Experimental results validate the effectiveness of our strategy.
- Abstract(参考訳): トレーニングソースと未確認対象ドメイン間の統計的相違から生じる分布シフトに対処するために、ドメインの一般化を提案する。
広範に使われている1次メタラーニングアルゴリズムは、特定のドメインへのオーバーフィッティングを減らすために、ソースドメイン間でバランスの取れたパラメータを確立することを目的とした勾配マッチング理論を活用することで、ドメインの一般化に強いパフォーマンスを示す。
しかし,本分析の結果から,勾配マッチングを実現する方法は多数あり,現在の手法は1つの経路しか表現できないことが明らかとなった。
これらの手法は、バランスの取れたパラメータが各ソース領域の最適パラメータのセントロイドに近くなければならないという別の重要な要素を実際に見落としている。
そこで本研究では,算術重み付き勾配を用いた単純かつ効果的な算術メタラーニングを提案する。
このアプローチは、勾配マッチングの原理に固執する一方で、ドメイン固有の最適パラメータ間のセントロイドを推定することにより、より正確なバランスを促進する。
実験結果は,我々の戦略の有効性を検証した。
関連論文リスト
- A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Distributed Fractional Bayesian Learning for Adaptive Optimization [7.16937736207894]
本稿では,各エージェントが共通パラメータを持つローカルコスト関数にのみアクセス可能な分散適応最適化問題について考察する。
分散最適化問題におけるパラメータの不確実性に対処し、同時に最適解を見つけるための貴重な洞察を提供することを目的としている。
論文 参考訳(メタデータ) (2024-04-17T13:09:33Z) - A Principle for Global Optimization with Gradients [0.0]
この研究は、多くの準最適局所ミニマを持つある微分可能関数の大域的最適化のための勾配の効用を示す。
実験は、非局所探索方向の品質と、提案した単純化アルゴリズムの性能を測定する。
論文 参考訳(メタデータ) (2023-08-18T13:39:29Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Constrained Maximum Cross-Domain Likelihood for Domain Generalization [14.91361835243516]
ドメインの一般化は、複数のソースドメイン上で一般化可能なモデルを学ぶことを目的としている。
本稿では,異なる領域の後方分布間のKL偏差を最小限に抑える新しい領域一般化法を提案する。
Digits-DG、PACS、Office-Home、MiniDomainNetの4つの標準ベンチマークデータセットの実験は、我々のメソッドの優れたパフォーマンスを強調している。
論文 参考訳(メタデータ) (2022-10-09T03:41:02Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - The Last-Iterate Convergence Rate of Optimistic Mirror Descent in
Stochastic Variational Inequalities [29.0058976973771]
本稿では,アルゴリズムの収束率とBregman関数によって誘導される局所幾何学との複雑な関係を示す。
この指数はアルゴリズムの最適ステップサイズポリシーと得られた最適レートの両方を決定する。
論文 参考訳(メタデータ) (2021-07-05T09:54:47Z) - Gradient Matching for Domain Generalization [93.04545793814486]
機械学習システムの重要な要件は、見えないドメインに一般化する能力です。
ドメインの一般化を目標とするドメイン間勾配マッチングの目的を提案する。
我々は、その最適化を近似する単純な一階アルゴリズムfishを導出する。
論文 参考訳(メタデータ) (2021-04-20T12:55:37Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation [13.163271874039191]
本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
本稿では,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
論文 参考訳(メタデータ) (2020-02-03T06:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。