論文の概要: An Information-Theoretic Analysis for Transfer Learning: Error Bounds
and Applications
- arxiv url: http://arxiv.org/abs/2207.05377v1
- Date: Tue, 12 Jul 2022 08:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 15:51:17.776260
- Title: An Information-Theoretic Analysis for Transfer Learning: Error Bounds
and Applications
- Title(参考訳): 伝達学習のための情報理論解析:誤差境界とその応用
- Authors: Xuetong Wu, Jonathan H. Manton, Uwe Aickelin, Jingge Zhu
- Abstract要約: 本稿では,伝達学習アルゴリズムの一般化誤差と過剰リスクに関する情報理論解析を行う。
我々の結果は、おそらく予想通り、Kulback-Leiblerの発散$D(mu||mu')$がキャラクタリゼーションにおいて重要な役割を果たすことを示唆している。
そこで本研究では,ソースデータとターゲットデータの重み付けを適応的に調整するInfoBoostアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.081241420920605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning, or domain adaptation, is concerned with machine learning
problems in which training and testing data come from possibly different
probability distributions. In this work, we give an information-theoretic
analysis on the generalization error and excess risk of transfer learning
algorithms, following a line of work initiated by Russo and Xu. Our results
suggest, perhaps as expected, that the Kullback-Leibler (KL) divergence
$D(\mu||\mu')$ plays an important role in the characterizations where $\mu$ and
$\mu'$ denote the distribution of the training data and the testing test,
respectively. Specifically, we provide generalization error upper bounds for
the empirical risk minimization (ERM) algorithm where data from both
distributions are available in the training phase. We further apply the
analysis to approximated ERM methods such as the Gibbs algorithm and the
stochastic gradient descent method. We then generalize the mutual information
bound with $\phi$-divergence and Wasserstein distance. These generalizations
lead to tighter bounds and can handle the case when $\mu$ is not absolutely
continuous with respect to $\mu'$. Furthermore, we apply a new set of
techniques to obtain an alternative upper bound which gives a fast (and
optimal) learning rate for some learning problems. Finally, inspired by the
derived bounds, we propose the InfoBoost algorithm in which the importance
weights for source and target data are adjusted adaptively in accordance to
information measures. The empirical results show the effectiveness of the
proposed algorithm.
- Abstract(参考訳): トランスファーラーニング(英: Transfer learning)またはドメイン適応(ドメイン適応)は、トレーニングとテストデータがおそらく異なる確率分布から来る機械学習の問題である。
本研究では,russo と xu が始めた一連の作業に従って,一般化誤差と転送学習アルゴリズムの過剰リスクに関する情報理論的分析を行う。
我々の結果は、おそらく予想通り、Kulback-Leibler (KL) divergence $D(\mu||\mu')$が、それぞれトレーニングデータとテストテストの分布を示す場合、キャラクタリゼーションにおいて重要な役割を果たすことを示唆している。
具体的には,経験的リスク最小化 (ERM) アルゴリズムに対して,両分布からのデータをトレーニングフェーズで利用できる一般化誤差上限を提供する。
さらに,gibbs法や確率勾配降下法などの近似erm法にも解析を適用した。
次に、$\phi$-divergence と Wasserstein 距離で有界な相互情報を一般化する。
これらの一般化はより厳密な境界につながり、$\mu'$ に関して$\mu$ が絶対連続でない場合を扱うことができる。
さらに,いくつかの学習問題に対して高速(かつ最適な)学習率を与える代替上界を得るために,新たな手法を適用した。
最後に、導出境界に触発されて、情報量に応じてソースデータとターゲットデータの重み付けを適応的に調整するinfoboostアルゴリズムを提案する。
実験の結果,提案アルゴリズムの有効性が示された。
関連論文リスト
- On the Performance of Empirical Risk Minimization with Smoothed Data [59.3428024282545]
経験的リスク最小化(Empirical Risk Minimization、ERM)は、クラスがiidデータで学習可能であれば、サブ線形誤差を達成できる。
We show that ERM can able to achieve sublinear error when a class are learnable with iid data。
論文 参考訳(メタデータ) (2024-02-22T21:55:41Z) - Distributionally Robust Skeleton Learning of Discrete Bayesian Networks [9.46389554092506]
我々は、潜在的に破損したデータから一般的な離散ベイズネットワークの正確なスケルトンを学習する問題を考察する。
本稿では,有界ワッサーシュタイン距離(KL)における分布群に対する最も有害なリスクを,経験的分布へのKL分散を最適化することを提案する。
本稿では,提案手法が標準正規化回帰手法と密接に関連していることを示す。
論文 参考訳(メタデータ) (2023-11-10T15:33:19Z) - Hypothesis Transfer Learning with Surrogate Classification Losses:
Generalization Bounds through Algorithmic Stability [3.908842679355255]
仮説伝達学習(HTL)は、以前のタスクレバレッジを新たなターゲットにすることで、ドメイン適応と対比する。
本稿では,機械学習アルゴリズム解析のための魅力的な理論フレームワークであるアルゴリズム安定性によるHTLの学習理論について検討する。
論文 参考訳(メタデータ) (2023-05-31T09:38:21Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Learning Algorithm Generalization Error Bounds via Auxiliary Distributions [16.44492672878356]
一般化エラー境界は、機械学習モデルがどのように機能するかを理解するのに不可欠である。
そこで本研究では,Auxiliary Distribution Methodという新たな手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T10:37:04Z) - On Leave-One-Out Conditional Mutual Information For Generalization [122.2734338600665]
残余条件付き相互情報(loo-CMI)の新しい尺度に基づく教師付き学習アルゴリズムのための情報理論の一般化境界を導出する。
他のCMI境界とは対照的に、我々のloo-CMI境界は容易に計算でき、古典的なout-out-out-cross-validationのような他の概念と関連して解釈できる。
ディープラーニングのシナリオにおいて予測された一般化ギャップを評価することにより,境界の質を実証的に検証する。
論文 参考訳(メタデータ) (2022-07-01T17:58:29Z) - Transfer Learning under High-dimensional Generalized Linear Models [7.675822266933702]
本研究では,高次元一般化線形モデルによる伝達学習問題について検討する。
オラクルアルゴリズムを提案し,その$ell$-estimationエラー境界を導出する。
どのソースを転送すべきかわからない場合には、アルゴリズム無しで転送可能なソース検出手法を導入します。
論文 参考訳(メタデータ) (2021-05-29T15:39:43Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Information-theoretic analysis for transfer learning [5.081241420920605]
本稿では,一般化誤差と転帰学習アルゴリズムの過大なリスクに関する情報理論解析を行う。
我々の結果は、おそらく予想通り、Kulback-Leiblerの発散$D(mu||mu')$が一般化誤差を特徴づける重要な役割を果たすことを示唆している。
論文 参考訳(メタデータ) (2020-05-18T13:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。