論文の概要: Sparse Optimization for Transfer Learning: A L0-Regularized Framework for Multi-Source Domain Adaptation
- arxiv url: http://arxiv.org/abs/2504.04812v1
- Date: Mon, 07 Apr 2025 08:06:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:14:48.031276
- Title: Sparse Optimization for Transfer Learning: A L0-Regularized Framework for Multi-Source Domain Adaptation
- Title(参考訳): 移行学習のためのスパース最適化:マルチソースドメイン適応のためのL0規則化フレームワーク
- Authors: Chenqi Gong, Hu Yang,
- Abstract要約: L0-regularizationに基づくSparse Optimization for Transfer Learningフレームワークを提案する。
シミュレーションにより、SOTLは推定精度と計算速度の両方を著しく改善することが示された。
コミュニティと犯罪のベンチマークにおける実証的検証は、クロスドメイン転送におけるSOTL法の統計的堅牢性を示している。
- 参考スコア(独自算出の注目度): 9.605924781372849
- License:
- Abstract: This paper explores transfer learning in heterogeneous multi-source environments with distributional divergence between target and auxiliary domains. To address challenges in statistical bias and computational efficiency, we propose a Sparse Optimization for Transfer Learning (SOTL) framework based on L0-regularization. The method extends the Joint Estimation Transferred from Strata (JETS) paradigm with two key innovations: (1) L0-constrained exact sparsity for parameter space compression and complexity reduction, and (2) refining optimization focus to emphasize target parameters over redundant ones. Simulations show that SOTL significantly improves both estimation accuracy and computational speed, especially under adversarial auxiliary domain conditions. Empirical validation on the Community and Crime benchmarks demonstrates the statistical robustness of the SOTL method in cross-domain transfer.
- Abstract(参考訳): 本稿では,ターゲットドメインと補助ドメイン間の分散分散を伴う異種マルチソース環境における伝達学習について検討する。
統計的バイアスと計算効率の課題に対処するため,L0正規化に基づくSparse Optimization for Transfer Learning (SOTL) フレームワークを提案する。
この手法は,(1)パラメータ空間の圧縮と複雑性低減のためにL0制約の厳密な間隔を制限し,(2)冗長なパラメータよりもターゲットパラメータに重点を置くように最適化する,という2つの重要な革新を伴って,Strata(JETS)パラダイムからJETS(Joint Estimation Transfered)に拡張する。
シミュレーションにより、SOTLは推定精度と計算速度の両方を、特に逆補助領域条件下で著しく改善することが示された。
コミュニティと犯罪のベンチマークにおける実証的検証は、クロスドメイン転送におけるSOTL法の統計的堅牢性を示している。
関連論文リスト
- Tackling Distribution Shifts in Task-Oriented Communication with Information Bottleneck [28.661084093544684]
本稿では,情報ボトルネック(IB)原理と不変リスク最小化(IRM)フレームワークに基づく新しいアプローチを提案する。
提案手法は,効率的な領域シフト一般化のための高機能を有するコンパクトかつ情報的特徴を抽出することを目的としている。
提案手法は最先端の手法より優れ、より優れたレート歪みトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2024-05-15T17:07:55Z) - Truncated Non-Uniform Quantization for Distributed SGD [17.30572818507568]
分散勾配Descent(SGD)の通信効率を高めるための新しい2段階量子化戦略を導入する。
提案手法は, 当初, 長い尾音の影響を軽減するためにトラニケーションを用いており, 続いて, 統計的特性に基づいて, トラニケーション後の勾配の均一な量子化を行う。
提案アルゴリズムは既存の量子化方式よりも優れており,通信効率と収束性能のバランスが優れている。
論文 参考訳(メタデータ) (2024-02-02T05:59:48Z) - On the Communication Complexity of Decentralized Bilevel Optimization [40.45379954138305]
本稿では,更新戦略の同時および交互化に基づく2つの新しい分散二段階勾配勾配アルゴリズムを提案する。
我々のアルゴリズムは既存の手法よりも高速な収束率と通信コストを抑えることができる。
このような理論的な結果は、不均一な環境での軽微な仮定で達成されたのはこれが初めてである。
論文 参考訳(メタデータ) (2023-11-19T14:56:26Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Escaping Saddle Points with Bias-Variance Reduced Local Perturbed SGD
for Communication Efficient Nonconvex Distributed Learning [58.79085525115987]
ローカル手法は通信時間を短縮する有望なアプローチの1つである。
局所的データセットが局所的損失の滑らかさよりも小さい場合,通信の複雑さは非局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-12T15:12:17Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection [50.29565896287595]
サーカズム検出のための共通データセットを活用するために,転送学習を適用する。
異なる損失が互いに対応できる汎用的な潜時最適化戦略を提案します。
特に、isarcasmデータセットの以前の状態よりも10.02%の絶対性能向上を達成している。
論文 参考訳(メタデータ) (2021-04-19T13:07:52Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。