論文の概要: ISTRBoost: Importance Sampling Transfer Regression using Boosting
- arxiv url: http://arxiv.org/abs/2204.12044v1
- Date: Tue, 26 Apr 2022 02:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 23:28:56.579513
- Title: ISTRBoost: Importance Sampling Transfer Regression using Boosting
- Title(参考訳): istrboost: boostingを用いた重要サンプリング転送回帰
- Authors: Shrey Gupta, Jianzhao Bi, Yang Liu, and Avani Wildani
- Abstract要約: 現在のインスタンス転送学習(ITL)手法は、ドメイン適応とサブスペース変換を用いて、転送学習を成功させる。
ブースティング手法は,高比重の反復リウィーディングインスタンスにより過度に適合するリスクを低減することが示されている。
本稿では,2段階の TrAdaBoost.R2 という一般的な ITL 回帰手法を基盤として,この問題に対してよりシンプルで堅牢な修正を導入する。
- 参考スコア(独自算出の注目度): 4.319090388509148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current Instance Transfer Learning (ITL) methodologies use domain adaptation
and sub-space transformation to achieve successful transfer learning. However,
these methodologies, in their processes, sometimes overfit on the target
dataset or suffer from negative transfer if the test dataset has a high
variance. Boosting methodologies have been shown to reduce the risk of
overfitting by iteratively re-weighing instances with high-residual. However,
this balance is usually achieved with parameter optimization, as well as
reducing the skewness in weights produced due to the size of the source
dataset. While the former can be achieved, the latter is more challenging and
can lead to negative transfer. We introduce a simpler and more robust fix to
this problem by building upon the popular boosting ITL regression methodology,
two-stage TrAdaBoost.R2. Our methodology,~\us{}, is a boosting and
random-forest based ensemble methodology that utilizes importance sampling to
reduce the skewness due to the source dataset. We show that~\us{}~performs
better than competitive transfer learning methodologies $63\%$ of the time. It
also displays consistency in its performance over diverse datasets with varying
complexities, as opposed to the sporadic results observed for other transfer
learning methodologies.
- Abstract(参考訳): 現在のインスタンス転送学習(ITL)手法は、ドメイン適応とサブスペース変換を用いて、転送学習を成功させる。
しかしながら、これらの方法論は、そのプロセスにおいて、テストデータセットが分散度が高い場合、ターゲットデータセットに過度に適合するか、負の転送に苦しむことがある。
ブースティング手法は,高レジデントを反復的に繰り返すことで過度に適合するリスクを低減することが示されている。
しかしながら、このバランスは通常、パラメータ最適化によって達成され、ソースデータセットのサイズによって生成される重みの歪みを低減する。
前者は達成できるが、後者はより困難であり、負の移動につながる可能性がある。
本稿では,2段階の TrAdaBoost.R2 という一般的な ITL 回帰手法に基づいて,この問題に対してよりシンプルで堅牢な修正を導入する。
我々の方法論である~\us{}は、重要サンプリングを利用してソース・データセットによる歪を低減し、ランダム・フォレストに基づくアンサンブル手法である。
競争力のある移行学習手法よりも,~\us{}~が 63\% の時間でよいことを示す。
また、他のトランスファー学習手法で観察される散発的な結果とは対照的に、さまざまな複雑なデータセットに対するパフォーマンスの一貫性を示す。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Robust Transfer Learning with Unreliable Source Data [13.276850367115333]
対象関数とソース回帰関数との差を測定する「あいまい度レベル」と呼ばれる新しい量を導入する。
本稿では, 簡単な伝達学習手法を提案し, この新しい量が学習の伝達可能性にどのように関係しているかを示す一般的な定理を確立する。
論文 参考訳(メタデータ) (2023-10-06T21:50:21Z) - Revisiting the Robustness of the Minimum Error Entropy Criterion: A
Transfer Learning Case Study [16.07380451502911]
本稿では,非ガウス雑音に対処する最小誤差エントロピー基準のロバスト性を再考する。
本稿では,分散シフトが一般的である実生活伝達学習回帰タスクの実現可能性と有用性について検討する。
論文 参考訳(メタデータ) (2023-07-17T15:38:11Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Estimation and inference for transfer learning with high-dimensional
quantile regression [3.4510296013600374]
本研究では,高次元量子レグレッションモデルの枠組みにおける伝達学習手法を提案する。
我々は、微妙に選択された転送可能なソースドメインに基づいて、転送学習推定器の誤差境界を確立する。
データ分割手法を採用することにより、負の転送を回避できる転送可能性検出手法を提案する。
論文 参考訳(メタデータ) (2022-11-26T14:40:19Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Learning Fast Sample Re-weighting Without Reward Data [41.92662851886547]
本稿では,新たな報酬データを必要としない学習ベース高速サンプル再重み付け手法を提案する。
実験により,提案手法は,ラベルノイズや長い尾の認識に関する芸術的状況と比較して,競争力のある結果が得られることを示した。
論文 参考訳(メタデータ) (2021-09-07T17:30:56Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。