論文の概要: Gap Minimization for Knowledge Sharing and Transfer
- arxiv url: http://arxiv.org/abs/2201.11231v1
- Date: Wed, 26 Jan 2022 23:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-29 02:05:26.786108
- Title: Gap Minimization for Knowledge Sharing and Transfer
- Title(参考訳): 知識共有と伝達のためのギャップ最小化
- Authors: Boyu Wang, Jorge Mendez, Changjian Shui, Fan Zhou, Di Wu, Christian
Gagn\'e, Eric Eaton
- Abstract要約: 本稿では,学習課題間の距離の直感的かつ新しい尺度であるエンファンパシーギャップの概念を紹介する。
性能ギャップをデータおよびアルゴリズムに依存した正規化器とみなすことができ、モデルの複雑さを制御し、より詳細な保証をもたらす。
私たちはこの原理を2つのアルゴリズムでインスタンス化する: 1. gapBoost, トランスファーラーニングのためのソースとターゲットドメイン間のパフォーマンスギャップを明示的に最小化する新規で原則化されたブースティングアルゴリズム; 2. gapMTNN, ギャップ最小化をセマンティック条件マッチングとして再構成する表現学習アルゴリズム
- 参考スコア(独自算出の注目度): 24.954256258648982
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Learning from multiple related tasks by knowledge sharing and transfer has
become increasingly relevant over the last two decades. In order to
successfully transfer information from one task to another, it is critical to
understand the similarities and differences between the domains. In this paper,
we introduce the notion of \emph{performance gap}, an intuitive and novel
measure of the distance between learning tasks. Unlike existing measures which
are used as tools to bound the difference of expected risks between tasks
(e.g., $\mathcal{H}$-divergence or discrepancy distance), we theoretically show
that the performance gap can be viewed as a data- and algorithm-dependent
regularizer, which controls the model complexity and leads to finer guarantees.
More importantly, it also provides new insights and motivates a novel principle
for designing strategies for knowledge sharing and transfer: gap minimization.
We instantiate this principle with two algorithms: 1. {gapBoost}, a novel and
principled boosting algorithm that explicitly minimizes the performance gap
between source and target domains for transfer learning; and 2. {gapMTNN}, a
representation learning algorithm that reformulates gap minimization as
semantic conditional matching for multitask learning. Our extensive evaluation
on both transfer learning and multitask learning benchmark data sets shows that
our methods outperform existing baselines.
- Abstract(参考訳): 知識の共有と伝達による複数の関連タスクからの学習は、過去20年間でますます重要になっている。
あるタスクから別のタスクに情報を転送するのには、ドメイン間の類似点と相違点を理解することが重要である。
本稿では,学習タスク間の距離の直感的かつ新しい尺度である \emph{performance gap} の概念を紹介する。
タスク間の期待されるリスクの差(例えば$\mathcal{h}$-divergenceやdisrepancy distance)を制限するツールとして使用される既存の尺度とは異なり、理論的には、パフォーマンスギャップは、モデルの複雑さを制御し、より細かい保証につながるデータおよびアルゴリズム依存の正規化子と見なすことができる。
さらに重要なのは、新たな洞察を提供し、知識共有と伝達のための戦略を設計するための新しい原則を動機付けていることだ。
この原理を2つのアルゴリズムでインスタンス化します
1.gapBoostという,転送学習におけるソースドメインとターゲットドメインのパフォーマンスギャップを明示的に最小化する,斬新で原則化されたブースティングアルゴリズム
2.マルチタスク学習のための意味条件マッチングとしてギャップ最小化を再構成する表現学習アルゴリズムである{gapmtnn}。
トランスファーラーニングとマルチタスクラーニングのベンチマークデータセットに関する広範な評価は,我々の手法が既存のベースラインより優れていることを示している。
関連論文リスト
- Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Multi-Task Learning with Prior Information [5.770309971945476]
本稿では,機能間の関係に関する事前知識を利用するマルチタスク学習フレームワークを提案する。
また、各特徴に対して変化する係数に対してペナルティを課し、それらの共通する特徴に類似した係数を持つことを保証します。
論文 参考訳(メタデータ) (2023-01-04T12:48:05Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Deep transfer learning for partial differential equations under
conditional shift with DeepONet [0.0]
深層演算子ネットワーク(DeepONet)を用いた条件シフト下でのタスク固有学習のための新しいTLフレームワークを提案する。
条件埋め込み演算子理論に触発されて、ソース領域とターゲット特徴領域の間の統計的距離を測定する。
提案するTLフレームワークは,ソースドメインとターゲットドメインの間に大きな違いがあるにも関わらず,高速かつ効率的なマルチタスク演算子学習を可能にする。
論文 参考訳(メタデータ) (2022-04-20T23:23:38Z) - Multi-task Learning by Leveraging the Semantic Information [14.397128692867799]
タスク間の意味的条件関係を探索し,マルチタスク学習におけるラベル情報の利用を提案する。
また,分析結果から,意味分布と協調してラベル分布の発散を制御する具体的アルゴリズムが導かれる。
論文 参考訳(メタデータ) (2021-03-03T17:36:35Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Multitask learning over graphs: An Approach for Distributed, Streaming
Machine Learning [46.613346075513206]
マルチタスク学習は帰納的伝達学習のアプローチである。
近年、分散ストリーミング方式でデータを収集する能力が高まっている。
これは、分散(またはネットワーク化された)システム上でのストリーミングデータから、複数のタスクを共同で学習するための新しい戦略の設計を必要とする。
論文 参考訳(メタデータ) (2020-01-07T15:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。