論文の概要: Universal Algorithm-Implicit Learning
- arxiv url: http://arxiv.org/abs/2602.14761v1
- Date: Mon, 16 Feb 2026 14:05:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.450934
- Title: Universal Algorithm-Implicit Learning
- Title(参考訳): Universal Algorithm-Implicit Learning
- Authors: Stefano Woerner, Seong Joon Oh, Christian F. Baumgartner,
- Abstract要約: 本稿では,実践的普遍性を正式に定義するメタラーニングの理論的枠組みを導入し,アルゴリズムとアルゴリズムとを区別する手法を提案する。
本稿では,変圧器をベースとしたアルゴリズムによるメタラーナTAILについて述べる。
TAILは、標準的な数ショットのベンチマークで最先端のパフォーマンスを達成し、目に見えない領域に一般化する。
- 参考スコア(独自算出の注目度): 19.712439620866945
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Current meta-learning methods are constrained to narrow task distributions with fixed feature and label spaces, limiting applicability. Moreover, the current meta-learning literature uses key terms like "universal" and "general-purpose" inconsistently and lacks precise definitions, hindering comparability. We introduce a theoretical framework for meta-learning which formally defines practical universality and introduces a distinction between algorithm-explicit and algorithm-implicit learning, providing a principled vocabulary for reasoning about universal meta-learning methods. Guided by this framework, we present TAIL, a transformer-based algorithm-implicit meta-learner that functions across tasks with varying domains, modalities, and label configurations. TAIL features three innovations over prior transformer-based meta-learners: random projections for cross-modal feature encoding, random injection label embeddings that extrapolate to larger label spaces, and efficient inline query processing. TAIL achieves state-of-the-art performance on standard few-shot benchmarks while generalizing to unseen domains. Unlike other meta-learning methods, it also generalizes to unseen modalities, solving text classification tasks despite training exclusively on images, handles tasks with up to 20$\times$ more classes than seen during training, and provides orders-of-magnitude computational savings over prior transformer-based approaches.
- Abstract(参考訳): 現在のメタラーニング手法は、固定された特徴空間とラベル空間を持つ狭いタスク分布に制約され、適用性に制限がある。
さらに、現在のメタラーニング文学は「普遍的」や「汎用的」といった重要な用語を矛盾なく用い、正確な定義を欠き、互換性を妨げている。
本稿では,実践的普遍性を正式に定義するメタラーニングの理論的枠組みを導入し,アルゴリズムとアルゴリズムとを区別し,普遍的なメタラーニング手法を推論するための原則的語彙を提供する。
このフレームワークによってガイドされたTAILは、トランスフォーマーベースのアルゴリズムによるメタラーであり、様々なドメイン、モダリティ、ラベル構成を持つタスク間で機能する。
TAILには、トランスフォーマーベースのメタラーナーよりも3つの革新がある: クロスモーダルな特徴符号化のためのランダムプロジェクション、より大きなラベル空間に外挿するランダムなインジェクションラベル埋め込み、効率的なインラインクエリ処理。
TAILは、標準的な数ショットのベンチマークで最先端のパフォーマンスを達成し、目に見えない領域に一般化する。
他のメタラーニング方法とは異なり、画像のみをトレーニングしているにもかかわらず、テキスト分類タスクを解き、トレーニング中に見られる最大20$\times$のクラスでタスクを処理し、事前のトランスフォーマーベースのアプローチよりもマグニチュードの計算的節約を提供する。
関連論文リスト
- General-Purpose In-Context Learning by Meta-Learning Transformers [45.63069059498147]
本研究では,トランスフォーマーや他のブラックボックスモデルをメタトレーニングして,汎用的なインコンテキスト学習者として機能させることができることを示す。
一般化するアルゴリズム、記憶するアルゴリズム、メタトレーニングに失敗するアルゴリズム間の遷移を特徴付ける。
本稿では,学習アルゴリズムのメタトレーニングとメタ汎用化を改善するためのトレーニング分布の偏りなどの実践的介入を提案する。
論文 参考訳(メタデータ) (2022-12-08T18:30:22Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - Learning an Explicit Hyperparameter Prediction Function Conditioned on
Tasks [62.63852372239708]
メタ学習は、観察されたタスクから機械学習の学習方法論を学び、新しいクエリタスクに一般化することを目的としている。
我々は、これらの学習手法を、全てのトレーニングタスクで共有される明示的なハイパーパラメータ予測関数の学習として解釈する。
このような設定は、メタ学習方法論が多様なクエリタスクに柔軟に適合できることを保証する。
論文 参考訳(メタデータ) (2021-07-06T04:05:08Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。