論文の概要: From Cross-Task Examples to In-Task Prompts: A Graph-Based Pseudo-Labeling Framework for In-context Learning
- arxiv url: http://arxiv.org/abs/2510.24528v1
- Date: Tue, 28 Oct 2025 15:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.253745
- Title: From Cross-Task Examples to In-Task Prompts: A Graph-Based Pseudo-Labeling Framework for In-context Learning
- Title(参考訳): クロスタスク事例からインタスクプロンプトへ:インコンテキスト学習のためのグラフベース擬似ラベルフレームワーク
- Authors: Zihan Chen, Song Wang, Xingbo Fu, Chengshuai Shi, Zhenyu Lei, Cong Shen, Jundong Li,
- Abstract要約: In-context Learning (ICL) は、大きな言語モデルでパラメータを更新せずに新しいタスクを実行できる。
データラベリングのための言語モデルに依存するコスト効率のよい2段階パイプラインを提案する。
5つのタスクにまたがる実験により,ラベリングコストを下げながら,本手法が高い性能を達成することを示す。
- 参考スコア(独自算出の注目度): 55.90498988440303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The capability of in-context learning (ICL) enables large language models (LLMs) to perform novel tasks without parameter updates by conditioning on a few input-output examples. However, collecting high-quality examples for new or challenging tasks can be costly and labor-intensive. In this work, we propose a cost-efficient two-stage pipeline that reduces reliance on LLMs for data labeling. Our approach first leverages readily available cross-task examples to prompt an LLM and pseudo-label a small set of target task instances. We then introduce a graph-based label propagation method that spreads label information to the remaining target examples without additional LLM queries. The resulting fully pseudo-labeled dataset is used to construct in-task demonstrations for ICL. This pipeline combines the flexibility of cross-task supervision with the scalability of LLM-free propagation. Experiments across five tasks demonstrate that our method achieves strong performance while lowering labeling costs.
- Abstract(参考訳): インコンテキスト学習(ICL)の能力により、大規模言語モデル(LLM)は、いくつかの入力出力例を条件にすることで、パラメータ更新なしで新しいタスクを実行できる。
しかし、新しいタスクや挑戦的なタスクの高品質なサンプルを集めるのは、コストがかかり、労力がかかります。
本研究では,データラベリングにおけるLCMに依存するコスト効率の低い2段階パイプラインを提案する。
当社のアプローチではまず,利用可能なクロスタスクの例を活用して,LLMを起動し,ターゲットタスクインスタンスの小さなセットに擬似ラベルを付ける。
次に,LLMクエリを追加することなく,ラベル情報を残りの対象事例に分散するグラフベースのラベル伝搬手法を提案する。
完全な擬似ラベル付きデータセットは、ICLのタスク内デモを構築するために使用される。
このパイプラインは、クロスタスクの監視の柔軟性とLLMフリーな伝搬のスケーラビリティを組み合わせる。
5つのタスクにまたがる実験により,ラベリングコストを下げながら,本手法が高い性能を達成することを示す。
関連論文リスト
- MAPLE: Many-Shot Adaptive Pseudo-Labeling for In-Context Learning [53.02571749383208]
In-Context Learning (ICL)は、大規模言語モデル(LLM)に複数のインプット・アウトプット・サンプルを組み込むことで、多様なタスクに対処する権限を与える。
Many-Shot Adaptive Pseudo-LabEling (MAPLE)は、ラベル情報の欠如を補うために擬似ラベル付きサンプルを利用する新しいインフルエンスベースのマルチショットICLフレームワークである。
論文 参考訳(メタデータ) (2025-05-22T04:54:27Z) - Augmenting In-Context-Learning in LLMs via Automatic Data Labeling and Refinement [7.108002571622824]
本稿では,デモの自動生成とフィルタを行うADLR(Automatic Data Labeling and Refinement)を提案する。
コードベースのテーブルQAと数学的推論におけるADLRの利点を実証し、最大5.5%のゲインを達成した。
論文 参考訳(メタデータ) (2024-10-14T10:06:58Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Get my drift? Catching LLM Task Drift with Activation Deltas [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Language Models can Exploit Cross-Task In-context Learning for Data-Scarce Novel Tasks [22.66167973623777]
LLM(Large Language Models)は、ICL(In-context Learning)機能によってNLPを変換した。
本稿では,予め定義されたタスクのラベル付き例から新しいタスクまで,LLMが一般化できるかどうかを検討する。
LLaMA-2 7Bは107%, LLaMA-2 13Bは18.6%, GPT3.5は3.2%であった。
論文 参考訳(メタデータ) (2024-05-17T05:20:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。