論文の概要: Information Maximizing Curriculum: A Curriculum-Based Approach for
Training Mixtures of Experts
- arxiv url: http://arxiv.org/abs/2303.15349v1
- Date: Mon, 27 Mar 2023 16:02:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 14:38:54.773369
- Title: Information Maximizing Curriculum: A Curriculum-Based Approach for
Training Mixtures of Experts
- Title(参考訳): 情報最大化カリキュラム:専門家の混合学習のためのカリキュラムベースアプローチ
- Authors: Denis Blessing, Onur Celik, Xiaogang Jia, Moritz Reuss, Maximilian
Xiling Li, Rudolf Lioutikov, Gerhard Neumann
- Abstract要約: 混合専門家(MoE)は、複数のモードで複雑な条件分布を学習できることで知られている。
そこで本研究では,MoEの各コンポーネントが学習用トレーニングデータのサブセットを選択可能な,新たなカリキュラムベースの混合モデル学習手法を提案する。
我々は,様々なマルチモーダル行動学習タスクに対するカリキュラムベースのアプローチを評価し,MoEモデルと条件付き生成モデルを学ぶための競合する手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 13.692919860229361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixtures of Experts (MoE) are known for their ability to learn complex
conditional distributions with multiple modes. However, despite their
potential, these models are challenging to train and often tend to produce poor
performance, explaining their limited popularity. Our hypothesis is that this
under-performance is a result of the commonly utilized maximum likelihood (ML)
optimization, which leads to mode averaging and a higher likelihood of getting
stuck in local maxima. We propose a novel curriculum-based approach to learning
mixture models in which each component of the MoE is able to select its own
subset of the training data for learning. This approach allows for independent
optimization of each component, resulting in a more modular architecture that
enables the addition and deletion of components on the fly, leading to an
optimization less susceptible to local optima. The curricula can ignore
data-points from modes not represented by the MoE, reducing the mode-averaging
problem. To achieve a good data coverage, we couple the optimization of the
curricula with a joint entropy objective and optimize a lower bound of this
objective. We evaluate our curriculum-based approach on a variety of multimodal
behavior learning tasks and demonstrate its superiority over competing methods
for learning MoE models and conditional generative models.
- Abstract(参考訳): 混合専門家(MoE)は、複数のモードで複雑な条件分布を学習できることで知られている。
しかし、その可能性にもかかわらず、これらのモデルは訓練が難しく、しばしば性能が悪く、その人気は限られている。
我々の仮説では、このアンダーパフォーマンスは、一般的に利用される最大可能性(ML)最適化の結果であり、モデム平均化と局所的な最大値で立ち往生する可能性が高くなる。
そこで本研究では,MoEの各コンポーネントが学習用トレーニングデータのサブセットを選択可能な,新たなカリキュラムベースの混合モデル学習手法を提案する。
このアプローチにより、各コンポーネントの独立的な最適化が可能となり、モジュール化されたアーキテクチャにより、コンポーネントの追加と削除が可能になり、ローカルな最適化の影響を受けにくくなる。
カリキュラムは、MoEで表現されていないモードからデータポイントを無視することができ、モード回避の問題を減らすことができる。
良好なデータカバレッジを実現するために,曲率の最適化とジョイントエントロピーの目標を結合し,この目標の下限を最適化する。
多様なマルチモーダル行動学習タスクに対するカリキュラムベースのアプローチを評価し、MoEモデルと条件付き生成モデルを学ぶための競合する手法よりも優れていることを示す。
関連論文リスト
- IMLE Policy: Fast and Sample Efficient Visuomotor Policy Learning via Implicit Maximum Likelihood Estimation [3.7584322469996896]
IMLEポリシーは、Implicit Maximum Likelihood Estimation (IMLE)に基づく新しい行動クローニング手法である
複雑なマルチモーダルな振る舞いを学ぶ上で、ベースラインメソッドのパフォーマンスに合わせるために、最小限のデモから効果的に学習し、平均で38%のデータを必要とします。
シミュレーションおよび実環境における多様な操作タスクに対するアプローチを検証し、データ制約下で複雑な振る舞いをキャプチャする能力を示す。
論文 参考訳(メタデータ) (2025-02-17T23:22:49Z) - Learning on One Mode: Addressing Multi-Modality in Offline Reinforcement Learning [9.38848713730931]
オフライン強化学習は、環境と対話することなく、静的データセットから最適なポリシーを学習しようとする。
既存の方法は、しばしば一助的行動ポリシーを仮定し、この仮定が破られたとき、最適以下のパフォーマンスをもたらす。
行動方針の単一かつ有望なモードから学習することに焦点を当てた新しいアプローチであるLOM(Weighted Imitation Learning on One Mode)を提案する。
論文 参考訳(メタデータ) (2024-12-04T11:57:36Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Curriculum-Based Imitation of Versatile Skills [15.97723808124603]
模倣による学習スキルは、ロボットの直感的な教育にとって有望な概念である。
このようなスキルを学ぶ一般的な方法は、デモが与えられた可能性の最大化によってパラメトリックモデルを学ぶことである。
しかし、人間のデモンストレーションはしばしばマルチモーダルであり、同じタスクは複数の方法で解決される。
論文 参考訳(メタデータ) (2023-04-11T12:10:41Z) - Evaluating model-based planning and planner amortization for continuous
control [79.49319308600228]
我々は、モデル予測制御(MPC)と学習モデルとモデルフリーポリシー学習を組み合わせたハイブリッドアプローチを採っている。
モデルフリーエージェントは高いDoF制御問題においても強いベースラインであることがわかった。
モデルに基づくプランナを,パフォーマンスを損なうことなく,計画が損なわれるようなポリシーに置き換えることが可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T12:00:40Z) - Maximum Likelihood Estimation for Multimodal Learning with Missing
Modality [10.91899856969822]
そこで本研究では,モダリティ欠落データに知識を組み込むために,最大推定値に基づく効率的な手法を提案する。
トレーニングデータの95%がモダリティを欠いている場合でも,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-08-24T03:50:54Z) - Double Meta-Learning for Data Efficient Policy Optimization in
Non-Stationary Environments [12.45281856559346]
我々は、マルチタスク学習問題とみなすことができる非定常環境の学習モデルに興味を持っている。
モデルなし強化学習アルゴリズムは、広範囲なサンプリングを犠牲にしてマルチタスク学習において優れた性能を達成することができる。
モデルベースのアプローチは最もデータ効率のよい学習アルゴリズムの1つだが、それでも複雑なタスクやモデルの不確実性に苦慮している。
論文 参考訳(メタデータ) (2020-11-21T03:19:35Z) - Meta-Reinforcement Learning Robust to Distributional Shift via Model
Identification and Experience Relabeling [126.69933134648541]
本稿では,テスト時にアウト・オブ・ディストリビューション・タスクに直面した場合に,効率よく外挿できるメタ強化学習アルゴリズムを提案する。
我々の手法は単純な洞察に基づいており、動的モデルが非政治データに効率的かつ一貫して適応可能であることを認識している。
論文 参考訳(メタデータ) (2020-06-12T13:34:46Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。