論文の概要: Learning to Order: Task Sequencing as In-Context Optimization
- arxiv url: http://arxiv.org/abs/2603.14550v1
- Date: Sun, 15 Mar 2026 18:56:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.882102
- Title: Learning to Order: Task Sequencing as In-Context Optimization
- Title(参考訳): 注文の学習:インコンテキスト最適化としてのタスクシークエンシング
- Authors: Jan Kobiolka, Christian Frey, Arlind Kadra, Gresa Shala, Josif Grabocka,
- Abstract要約: 深層ニューラルネットワークは、合成されたTS問題に先立って無限にメタ学習し、数ショットの一般化を実現することができることを示す。
大規模な実験では、メタ学習モデルが非メタ学習ベースラインよりもはるかに高速に最適なタスクシーケンスを発見できるという経験的証拠が得られた。
- 参考スコア(独自算出の注目度): 22.023678059304725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Task sequencing (TS) is one of the core open problems in Deep Learning, arising in a plethora of real-world domains, from robotic assembly lines to autonomous driving. Unfortunately, prior work has not convincingly demonstrated the generalization ability of meta-learned TS methods to solve new TS problems, given few initial demonstrations. In this paper, we demonstrate that deep neural networks can meta-learn over an infinite prior of synthetically generated TS problems and achieve a few-shot generalization. We meta-learn a transformer-based architecture over datasets of sequencing trajectories generated from a prior distribution that samples sequencing problems as paths in directed graphs. In a large-scale experiment, we provide ample empirical evidence that our meta-learned models discover optimal task sequences significantly quicker than non-meta-learned baselines.
- Abstract(参考訳): タスクシークエンシング(TS)はDeep Learningの中核となるオープンな問題のひとつであり、ロボット組立ラインから自律運転に至るまで、多くの現実世界のドメインで発生している。
残念なことに、初期の研究は、メタ学習TS法が新しいTS問題を解くための一般化能力を説得力を持って証明していない。
本稿では,合成されたTS問題に先立って,深層ニューラルネットワークが無限にメタ学習し,数ショットの一般化を実現することを実証する。
我々は、有向グラフの経路としてシーケンス問題をサンプリングする事前分布から生成されたシークエンシングトラジェクトリのデータセット上で、トランスフォーマーベースのアーキテクチャをメタラーニングする。
大規模な実験では、メタ学習モデルが非メタ学習ベースラインよりもはるかに高速に最適なタスクシーケンスを発見できるという経験的証拠が得られた。
関連論文リスト
- Learnable Loss Geometries with Mirror Descent for Scalable and Convergent Meta-Learning [41.28925127311434]
メタラーニングは、限られたデータレコードで新しいタスクを学ぶための原則化されたアプローチである。
本稿では,タスクごとのトレーニングの収束を高速化する新しいプレコンディショニング手法を提案する。
数ショットの学習データセットに対するテストは、新しいアルゴリズムの優れた経験的性能を示す。
論文 参考訳(メタデータ) (2025-09-02T15:23:21Z) - Transformers are Minimax Optimal Nonparametric In-Context Learners [36.291980654891496]
大規模言語モデルのコンテキスト内学習は、いくつかの実証的な例から新しいタスクを学ぶのに驚くほど効果的な方法であることが証明されている。
我々は,ディープニューラルネットワークと1つの線形アテンション層からなる変圧器の近似および一般化誤差境界を開発する。
十分に訓練されたトランスフォーマーは、文脈における最小推定リスクを達成し、改善できることを示す。
論文 参考訳(メタデータ) (2024-08-22T08:02:10Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Bayesian Meta-Learning Through Variational Gaussian Processes [0.0]
ガウス過程に基づくメタラーニングを拡張し、高品質で任意のガウス的でない不確実性予測を可能にする。
提案手法は,既存のベイズメタラーニングベースラインよりも優れている。
論文 参考訳(メタデータ) (2021-10-21T10:44:23Z) - Large-Scale Meta-Learning with Continual Trajectory Shifting [76.29017270864308]
メタリアナーがより多くの内部勾配ステップをとれるようにすることで、ヘテロジニアスタスクや大規模タスクの構造をよりよく把握できることを示す。
メタ更新の頻度を増やすために、タスク固有のパラメータの必要なシフトを推定することを提案する。
このアルゴリズムは, 一般化性能と収束性の両方において, 先行する一階メタ学習法を大きく上回っていることを示す。
論文 参考訳(メタデータ) (2021-02-14T18:36:33Z) - Meta Cyclical Annealing Schedule: A Simple Approach to Avoiding
Meta-Amortization Error [50.83356836818667]
循環型アニーリングスケジュールとMMD基準を用いた新しいメタレギュラー化目標を構築した。
実験の結果,本手法は標準的なメタ学習アルゴリズムよりもかなり優れていることがわかった。
論文 参考訳(メタデータ) (2020-03-04T04:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。