論文の概要: Assessing the Limits of In-Context Learning beyond Functions using Partially Ordered Relation
- arxiv url: http://arxiv.org/abs/2506.13608v1
- Date: Mon, 16 Jun 2025 15:35:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.803537
- Title: Assessing the Limits of In-Context Learning beyond Functions using Partially Ordered Relation
- Title(参考訳): 部分順序付き関係を用いた関数以外の文脈学習の限界評価
- Authors: Debanjan Dutta, Faizanuddin Ansari, Swagatam Das,
- Abstract要約: 本稿では,帰納的複雑化の概念を導入し,部分順序関係におけるICLの性能について述べる。
ほとんどの場合、選択された計量の飽和性能は、ICLはいくつかの利点を提供するが、十分な実証例が存在する場合でも、プロンプトの複雑さが増大するにつれて、その効果が制限されていることを示している。
- 参考スコア(独自算出の注目度): 14.904264782690639
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating rational and generally accurate responses to tasks, often accompanied by example demonstrations, highlights Large Language Model's (LLM's) remarkable In-Context Learning (ICL) capabilities without requiring updates to the model's parameter space. Despite having an ongoing exploration focused on the inference from a document-level concept, its behavior in learning well-defined functions or relations in context needs a careful investigation. In this article, we present the performance of ICL on partially ordered relation by introducing the notion of inductively increasing complexity in prompts. In most cases, the saturated performance of the chosen metric indicates that while ICL offers some benefits, its effectiveness remains constrained as we increase the complexity in the prompts even in presence of sufficient demonstrative examples. The behavior is evident from our empirical findings and has further been theoretically justified in term of its implicit optimization process. The code is available \href{https://anonymous.4open.science/r/ICLonPartiallyOrderSet}{here}.
- Abstract(参考訳): 多くの場合、例示を伴うタスクに対する合理的で一般的に正確な応答を生成することは、モデルのパラメータ空間を更新することなく、Large Language Model(LLM)の注目すべきインコンテキスト学習(ICL)機能を強調している。
文書レベルの概念からの推測に焦点を絞った調査が進行中であるにもかかわらず、適切に定義された機能や文脈における関係を学習する際の行動は慎重に調査する必要がある。
本稿では,帰納的複雑化の概念を導入し,部分順序関係におけるICLの性能について述べる。
ほとんどの場合、選択された計量の飽和性能は、ICLはいくつかの利点を提供するが、十分な実証例が存在する場合でも、プロンプトの複雑さが増大するにつれて、その効果が制限されていることを示している。
この挙動は経験的発見から明らかであり、その暗黙の最適化プロセスの観点から理論的にさらに正当化されている。
コードは \href{https://anonymous.4open.science/r/ICLonPartiallyOrderSet}{here} で利用できる。
関連論文リスト
- Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Eliciting Causal Abilities in Large Language Models for Reasoning Tasks [14.512834333917414]
我々は,LLMが高品質で低品質な観測データを生成することができる自己因果的指導強化法(SCIE)を導入する。
SCIEでは、命令は治療として扱われ、自然言語を処理するためにテキストの特徴が使用される。
提案手法は,プロンプトのトレーニングコストを削減し,推論性能を向上させる命令を効果的に生成する。
論文 参考訳(メタデータ) (2024-12-19T17:03:02Z) - On the Loss of Context-awareness in General Instruction Fine-tuning [101.03941308894191]
教師付き微調整後の文脈認識の喪失について検討した。
性能低下は,会話指導の微調整中に学んだ異なる役割に対する偏見と関連していることがわかった。
一般命令微調整データセットから文脈依存例を識別する指標を提案する。
論文 参考訳(メタデータ) (2024-11-05T00:16:01Z) - Implicit In-context Learning [37.0562059811099]
Inlicit In-context Learning (I2CL)は、ICLの推論コストを最小限の情報損失でゼロショット学習に還元する革新的なパラダイムである。
I2CLはゼロショット推論コストで数ショットレベルのパフォーマンスを実現し、実演例のバリエーションに対して堅牢性を示す。
論文 参考訳(メタデータ) (2024-05-23T14:57:52Z) - ParaICL: Towards Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - TEGEE: Task dEfinition Guided Expert Ensembling for Generalizable and Few-shot Learning [37.09785060896196]
タスク定義を明示的に抽出する textbfTEGEE (Task Definition Guided Expert Ensembling) を提案する。
私たちのフレームワークは2つの3Bモデルアプローチを採用しています。
実験により, TEGEEはより大きなLLaMA2-13Bモデルと相容れない性能を示した。
論文 参考訳(メタデータ) (2024-03-07T05:26:41Z) - LLMs Learn Task Heuristics from Demonstrations: A Heuristic-Driven Prompting Strategy for Document-Level Event Argument Extraction [12.673710691468264]
本稿では,Huristic-Driven Link-of-Alogy (HD-LoA)を導入し,サンプル選択の課題に対処する。
人間の類推的推論にインスパイアされ,LLMが新たな状況に対処できるリンク・オブ・アナロジー・プロンプトを提案する。
実験により,本手法は文書レベルのAEデータセット上で,既存のプロンプト手法や数発の教師付き学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-11-11T12:05:01Z) - Compositional Exemplars for In-context Learning [21.961094715261133]
大規模な事前学習言語モデル(LM)は、印象的なインコンテキスト学習(ICL)能力を示している。
本稿では,CEIL (Compositional Exemplars for In-context Learning) を提案する。
我々は、感情分析、パラフレーズ検出、自然言語推論、コモンセンス推論、オープンドメイン質問応答、コード生成、意味解析を含む7つの異なるNLPタスクから、CEILを12の分類および生成データセットで検証する。
論文 参考訳(メタデータ) (2023-02-11T14:02:08Z) - Learning Implicitly with Noisy Data in Linear Arithmetic [94.66549436482306]
PAC-セマンティックスにおける暗黙学習を拡張し、線形算術の言語における間隔としきい値の不確実性を扱う。
最適線形プログラミング対象制約の学習に対する我々の暗黙的アプローチは、実際的な明示的アプローチよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-10-23T19:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。