論文の概要: Can Language Models Compose Skills In-Context?
- arxiv url: http://arxiv.org/abs/2510.22993v1
- Date: Mon, 27 Oct 2025 04:18:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.58675
- Title: Can Language Models Compose Skills In-Context?
- Title(参考訳): 言語モデルは文脈内でスキルを構成することができるか?
- Authors: Zidong Liu, Zhuoyan Xu, Zhenmei Shi, Yingyu Liang,
- Abstract要約: 合成タスクを実行するための言語モデルのコンテキスト内合成能力について検討する。
単純なタスクの例は、パフォーマンスに驚くほど悪い影響を与えます。
例を、その構成の対応するステップと整合させることが不可欠である。
- 参考スコア(独自算出の注目度): 18.46964936867475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Composing basic skills from simple tasks to accomplish composite tasks is crucial for modern intelligent systems. We investigate the in-context composition ability of language models to perform composite tasks that combine basic skills demonstrated in in-context examples. This is more challenging than the standard setting, where skills and their composition can be learned in training. We conduct systematic experiments on various representative open-source language models, utilizing linguistic and logical tasks designed to probe composition abilities. The results reveal that simple task examples can have a surprising negative impact on the performance, because the models generally struggle to recognize and assemble the skills correctly, even with Chain-of-Thought examples. Theoretical analysis further shows that it is crucial to align examples with the corresponding steps in the composition. This inspires a method for the probing tasks, whose improved performance provides positive support for our insights.
- Abstract(参考訳): 単純なタスクから複合タスクを達成するための基本的なスキルを構成することは、現代のインテリジェントシステムにとって不可欠である。
そこで本研究では,言語モデルにおけるテキスト内合成機能を用いて,テキスト内例に示す基本スキルを組み合わせた複合タスクを行う。
これは、トレーニングでスキルとその構成を学ぶことができる、標準的な設定よりも難しい。
コンポジション能力の探索を目的とした言語的・論理的タスクを利用して,様々な代表的オープンソース言語モデルの体系的実験を行う。
この結果は、単純なタスクの例がパフォーマンスに驚くべき悪影響を及ぼすことを示している。なぜなら、モデルは通常、Chain-of-Thoughtの例であっても、スキルを正しく認識し組み立てるのに苦労しているからだ。
理論的解析により、サンプルを合成の対応するステップと整合させることが重要であることが示される。
これにより、パフォーマンスが向上し、私たちの洞察に肯定的なサポートを提供する、探索タスクの方法がもたらされる。
関連論文リスト
- Temporal Representation Alignment: Successor Features Enable Emergent Compositionality in Robot Instruction Following [50.377287115281476]
本研究では,現在および将来の状態の表現と時間的損失を関連付ける学習により,構成一般化が向上することを示す。
我々は,多様なロボット操作タスクおよびシミュレーションにおけるアプローチを評価し,言語やゴールイメージで指定されたタスクに対して,大幅な改善を示す。
論文 参考訳(メタデータ) (2025-02-08T05:26:29Z) - Do Large Language Models Have Compositional Ability? An Investigation into Limitations and Scalability [12.349247962800813]
大規模言語モデル(LLM)は多くのAI問題に対する強力なツールとして登場した。
また、ICL(In-context Learning)機能も備えている。
複合的なタスクにどのようにアプローチするかは、未解明の未解決の問題のままである。
論文 参考訳(メタデータ) (2024-07-22T15:22:34Z) - Skills-in-Context Prompting: Unlocking Compositionality in Large Language Models [68.18370230899102]
大規模言語モデル(LLM)における構成一般化能力の活用法について検討する。
我々は,これらのスキルに基礎を置く基礎的スキルと構成的事例の両方を同じプロンプト・コンテキストで示すことが重要であることを発見した。
SKiC型データを用いた微調整LDMは、ゼロショット弱強一般化を導出できることを示す。
論文 参考訳(メタデータ) (2023-08-01T05:54:12Z) - Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language
Understanding [51.31622274823167]
本稿では,各タスクの下位レベルを全タスクに共有し,中間レベルを異なるグループに分割し,上位レベルを各タスクに割り当てる,粗大なパラダイムを持つ階層型フレームワークを提案する。
これにより、すべてのタスクから基本言語特性を学習し、関連するタスクのパフォーマンスを高め、無関係なタスクから負の影響を減らすことができる。
論文 参考訳(メタデータ) (2022-08-19T02:46:20Z) - Comparison and Analysis of New Curriculum Criteria for End-to-End ASR [10.698093106994804]
カリキュラム学習は、知識の組織的で構造化された同化が、より速いトレーニングとより良い理解を可能にする能力を持つという観察に基づいて構築される。
我々は,自動音声認識の文脈でカリキュラム学習を採用する。
トレーニングセットに構造を付加するため、外部ニューラルネットワークからのフィードバックを利用するか、モデル自体からのフィードバックを取り入れる複数のスコアリング関数を探索した。
論文 参考訳(メタデータ) (2022-08-10T06:56:58Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Rethinking End-to-End Evaluation of Decomposable Tasks: A Case Study on
Spoken Language Understanding [101.24748444126982]
分解可能なタスクは複雑で、サブタスクの階層から構成される。
しかし、既存のベンチマークでは、通常は表面レベルのサブタスクのみの例が示される。
サブタスク固有のユーティリティ関数上の座標アセントを用いて、ロバストなテストセットを構築するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-29T02:53:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。