論文の概要: Asymptotic Bayes risk of semi-supervised multitask learning on Gaussian
mixture
- arxiv url: http://arxiv.org/abs/2303.02048v1
- Date: Fri, 3 Mar 2023 16:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 14:22:22.882987
- Title: Asymptotic Bayes risk of semi-supervised multitask learning on Gaussian
mixture
- Title(参考訳): ガウス混合における半教師付きマルチタスク学習の漸近ベイズリスク
- Authors: Minh-Toan Nguyen, Romain Couillet
- Abstract要約: ガウス混合モデル(GMM)を用いた半教師付きマルチタスク学習の検討
統計物理学の手法を用いて,大規模データセットの体系における各タスクのベイズリスクを高次元で計算する。
本研究では,学習におけるタスク類似性の役割を分析し,タスクが別々に学習されるのではなく,一緒に学習した場合のパフォーマンス向上を評価する。
- 参考スコア(独自算出の注目度): 39.69759708124429
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The article considers semi-supervised multitask learning on a Gaussian
mixture model (GMM). Using methods from statistical physics, we compute the
asymptotic Bayes risk of each task in the regime of large datasets in high
dimension, from which we analyze the role of task similarity in learning and
evaluate the performance gain when tasks are learned together rather than
separately. In the supervised case, we derive a simple algorithm that attains
the Bayes optimal performance.
- Abstract(参考訳): 本稿ではガウス混合モデル(GMM)を用いた半教師付きマルチタスク学習について考察する。
統計物理学の手法を用いて,大規模データセットのシステムにおける各タスクの漸近ベイズリスクを高次元で計算し,学習におけるタスク類似性の役割を分析し,タスクが別々に学習された場合のパフォーマンス向上を評価する。
教師付きの場合、ベイズ最適性能を得るための単純なアルゴリズムを導出する。
関連論文リスト
- Risk-Sensitive Soft Actor-Critic for Robust Deep Reinforcement Learning
under Distribution Shifts [11.765000124617186]
本研究では、文脈多段階最適化問題における分散シフトに対する深層強化学習アルゴリズムの堅牢性について検討する。
提案アルゴリズムは,リスクニュートラルなソフトアクター・クライブや,頑健な深層強化学習のための2つのベンチマーク手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-15T14:55:38Z) - Robust Multi-Task Learning with Excess Risks [24.695243608197835]
マルチタスク学習(MTL)は、全てのタスク損失の凸結合を最適化することにより、複数のタスクのジョイントモデルを学ぶことを検討する。
既存の方法は適応的な重み更新方式を用いており、各損失に基づいてタスク重みを動的に調整し、困難なタスクを優先順位付けする。
本稿では,過度リスクに基づくタスクバランス手法であるMulti-Task Learning with Excess Risks (ExcessMTL)を提案する。
論文 参考訳(メタデータ) (2024-02-03T03:46:14Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Multivariate Systemic Risk Measures and Computation by Deep Learning
Algorithms [63.03966552670014]
本稿では,主観的最適度と関連するリスク割り当ての公平性に着目し,重要な理論的側面について論じる。
私たちが提供しているアルゴリズムは、予備項の学習、二重表現の最適化、およびそれに対応する公正なリスク割り当てを可能にします。
論文 参考訳(メタデータ) (2023-02-02T22:16:49Z) - Scalable Batch Acquisition for Deep Bayesian Active Learning [70.68403899432198]
ディープラーニングでは、各ステップでマークアップする複数の例を選択することが重要です。
BatchBALDのような既存のソリューションでは、多くの例を選択する際に大きな制限がある。
本稿では,より計算効率のよいLarge BatchBALDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-13T11:45:17Z) - Multi-Task Learning with Prior Information [5.770309971945476]
本稿では,機能間の関係に関する事前知識を利用するマルチタスク学習フレームワークを提案する。
また、各特徴に対して変化する係数に対してペナルティを課し、それらの共通する特徴に類似した係数を持つことを保証します。
論文 参考訳(メタデータ) (2023-01-04T12:48:05Z) - Robust Unsupervised Multi-task and Transfer Learning on Gaussian Mixture Models [13.07916598175886]
GMMにおけるマルチタスク学習問題について検討する。
本稿では,EMアルゴリズムに基づくマルチタスクGMM学習手法を提案する。
我々はGMMにおける伝達学習の課題に取り組むためのアプローチを一般化する。
論文 参考訳(メタデータ) (2022-09-30T04:35:12Z) - Thompson Sampling for Robust Transfer in Multi-Task Bandits [36.82266781427533]
本研究では,オンラインマルチタスク学習における課題について検討する。
我々は、より一般的なオンラインマルチタスク学習プロトコルのためのトンプソンサンプリング(TS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-17T05:28:01Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。