論文の概要: Multitask Learning and Bandits via Robust Statistics
- arxiv url: http://arxiv.org/abs/2112.14233v3
- Date: Thu, 8 Jun 2023 16:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 22:39:23.782440
- Title: Multitask Learning and Bandits via Robust Statistics
- Title(参考訳): ロバスト統計を用いたマルチタスク学習とバンドイット
- Authors: Kan Xu, Hamsa Bastani
- Abstract要約: 意思決定者は、しばしば多くの関連するが不均一な学習問題に直面している。
本稿では,この構造をサンプル効率良く活用する2段階マルチタスク学習推定器を提案する。
我々の推定器は、一般的な失業推定器と比較して、特徴次元$d$のサンプル複雑性境界を改善した。
- 参考スコア(独自算出の注目度): 5.535834989398578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision-makers often simultaneously face many related but heterogeneous
learning problems. For instance, a large retailer may wish to learn product
demand at different stores to solve pricing or inventory problems, making it
desirable to learn jointly for stores serving similar customers; alternatively,
a hospital network may wish to learn patient risk at different providers to
allocate personalized interventions, making it desirable to learn jointly for
hospitals serving similar patient populations. Motivated by real datasets, we
study a natural setting where the unknown parameter in each learning instance
can be decomposed into a shared global parameter plus a sparse
instance-specific term. We propose a novel two-stage multitask learning
estimator that exploits this structure in a sample-efficient way, using a
unique combination of robust statistics (to learn across similar instances) and
LASSO regression (to debias the results). Our estimator yields improved sample
complexity bounds in the feature dimension $d$ relative to commonly-employed
estimators; this improvement is exponential for "data-poor" instances, which
benefit the most from multitask learning. We illustrate the utility of these
results for online learning by embedding our multitask estimator within
simultaneous contextual bandit algorithms. We specify a dynamic calibration of
our estimator to appropriately balance the bias-variance tradeoff over time,
improving the resulting regret bounds in the context dimension $d$. Finally, we
illustrate the value of our approach on synthetic and real datasets.
- Abstract(参考訳): 意思決定者はしばしば、関連するが異質な学習の問題に直面する。
例えば、大手小売店は、価格や在庫の問題を解決するために、異なる店舗で製品需要を学習し、類似の顧客に仕える店舗で共同で学ぶことが望ましい場合があり、また、病院ネットワークは、個別の介入を割り当てるために、異なる業者で患者リスクを学習し、類似の患者集団に仕える病院で共同で学ぶことが望ましい場合もある。
実際のデータセットに動機付け,各学習インスタンス内の未知のパラメータを,共有グローバルパラメータとスパースインスタンス固有項に分解できる自然設定について検討する。
そこで本研究では,ロバストな統計(類似のインスタンスで学習する)とラッソ回帰(結果の偏りを解消する)のユニークな組み合わせを用いて,この構造をサンプル効率のよい方法で活用する,新しい2段階マルチタスク学習推定器を提案する。
我々の推定器は、一般的な失業推定器と比較して、特徴次元$d$のサンプル複雑性境界を改良し、この改善はマルチタスク学習の恩恵を受ける「データ・プール」インスタンスに対して指数関数的である。
本稿では,マルチタスク推定器を同時文脈バンディットアルゴリズムに組み込むことにより,オンライン学習におけるこれらの結果の有用性を示す。
我々は、時間とともにバイアス分散トレードオフを適切にバランスさせるために、推定器の動的キャリブレーションを定義し、その結果、文脈次元$d$の後悔境界を改善する。
最後に、合成および実際のデータセットに対する我々のアプローチの価値を説明します。
関連論文リスト
- Collaborative Learning with Shared Linear Representations: Statistical Rates and Optimal Algorithms [13.643155483461028]
コラボレーション学習により、複数のクライアントがローカルデータ分散間で共有された特徴表現を学習できる。
クライアントが共通の低次元線形表現を共有する際の最適統計率を同定する。
この結果から,システムレベルでのコラボレーションは,独立したクライアント学習に比べて,サンプリングの複雑さを低減させることがわかった。
論文 参考訳(メタデータ) (2024-09-07T21:53:01Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - DEMI: Discriminative Estimator of Mutual Information [5.248805627195347]
連続確率変数間の相互情報を推定することは、高次元データにとってしばしば難解で困難である。
近年の進歩は、相互情報の変動的下界を最適化するためにニューラルネットワークを活用している。
提案手法は,データサンプルペアが結合分布から引き出される確率を提供する分類器の訓練に基づく。
論文 参考訳(メタデータ) (2020-10-05T04:19:27Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。