論文の概要: Automatic Demonstration Selection for LLM-based Tabular Data Classification
- arxiv url: http://arxiv.org/abs/2506.20451v1
- Date: Wed, 25 Jun 2025 13:57:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.76853
- Title: Automatic Demonstration Selection for LLM-based Tabular Data Classification
- Title(参考訳): LLMに基づくタブラリデータ分類のための自動デモンストレーション選択
- Authors: Shuchu Han, Wolfgang Bruckner,
- Abstract要約: 本稿では,必要なデモを自動的に選択するアルゴリズムを提案する。
提案手法は,ユーザの選択したプロンプトテンプレートと特定大言語モデル(LLM)を統合することで,自分自身を識別する。
次に、類似性グラフを構築し、そのラプラシアンの固有値を分析して、データを表現することができる最小数の実演を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental question in applying In-Context Learning (ICL) for tabular data classification is how to determine the ideal number of demonstrations in the prompt. This work addresses this challenge by presenting an algorithm to automatically select a reasonable number of required demonstrations. Our method distinguishes itself by integrating not only the tabular data's distribution but also the user's selected prompt template and the specific Large Language Model (LLM) into its estimation. Rooted in Spectral Graph Theory, our proposed algorithm defines a novel metric to quantify the similarities between different demonstrations. We then construct a similarity graph and analyze the eigenvalues of its Laplacian to derive the minimum number of demonstrations capable of representing the data within the LLM's intrinsic representation space. We validate the efficacy of our approach through experiments comparing its performance against conventional random selection algorithms on diverse datasets and LLMs.
- Abstract(参考訳): 表型データ分類にIn-Context Learning (ICL)を適用する際の基本的な問題は、プロンプトにおけるデモの理想的な数を決定する方法である。
この作業は、必要なデモを適度に選択するアルゴリズムを提示することで、この問題に対処する。
提案手法は,表データの分布だけでなく,ユーザの選択したプロンプトテンプレートやLLM(Large Language Model)を推定に組み込むことによって,自分自身を識別する。
スペクトルグラフ理論において、提案アルゴリズムは、異なる実演間の類似性を定量化するための新しい計量を定義する。
次に、類似性グラフを構築し、ラプラシアンの固有値を解析し、LLMの固有表現空間内でデータを表現できる最小数の実演を導出する。
提案手法の有効性を,従来のランダム選択アルゴリズムとの比較実験により検証した。
関連論文リスト
- Large Language Models are Demonstration Pre-Selectors for Themselves [57.101804269100185]
大規模言語モデル(LLM)を備えたインコンテキスト学習(ICL)は、トレーニングデータ全体から数ショットのデモを選択することで、強力な数ショットのパフォーマンスを提供する。
FEw yet Essential Demonstration prE-selectoRは、デモの代表的なサブセットを特定する新しい事前選択フレームワークである。
FEwでもEssential Demonstration prE-selectoRは、パフォーマンスを維持しながら、トレーニングデータのサイズを20%以上削減できる。
論文 参考訳(メタデータ) (2025-06-06T12:29:03Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - Self Supervised Correlation-based Permutations for Multi-View Clustering [7.093692674858257]
汎用データ型のためのエンドツーエンドのディープラーニングに基づくマルチビュークラスタリングフレームワークを提案する。
提案手法は,新しい置換に基づく正準相関目標を用いた有意義な融合表現を生成する。
論文 参考訳(メタデータ) (2024-02-26T08:08:30Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - ProcSim: Proxy-based Confidence for Robust Similarity Learning [0.6963971634605796]
一般的なベンチマークデータセットには多くの間違ったラベルが含まれており、DMLメソッドはそれらに影響を受けやすいことを示す。
現実的なノイズの効果を研究するために、データセット内のクラスのオントロジーを作成し、それを意味論的に一貫性のあるラベル付けミスをシミュレートする。
頑健なDMLモデルをトレーニングするために,クラス代表に対して正規化距離を用いて各サンプルに信頼スコアを割り当てるフレームワークであるProcSimを提案する。
論文 参考訳(メタデータ) (2023-11-01T17:17:14Z) - In-Context Demonstration Selection with Cross Entropy Difference [95.21947716378641]
大規模言語モデル(LLM)は、ゼロショットタスクのパフォーマンスを改善するためにコンテキスト内デモを使用することができる。
テキスト内デモを選択するためのクロスエントロピー差分法(CED)を提案する。
論文 参考訳(メタデータ) (2023-05-24T05:04:00Z) - Task Affinity with Maximum Bipartite Matching in Few-Shot Learning [28.5184196829547]
本稿では,1つのタスクの知識を活用して,別のタスクを学習する複雑性を表現するための非対称親和性スコアを提案する。
特に、このスコアを用いて、テストデータに関連するトレーニングデータラベルを見つけ、発見した関連するデータを活用して、いくつかのショットモデルをエピソード的に微調整する。
論文 参考訳(メタデータ) (2021-10-05T23:15:55Z) - Low-rank Dictionary Learning for Unsupervised Feature Selection [11.634317251468968]
低ランク表現に辞書学習のアイデアを適用することで、教師なしの新たな特徴選択手法を導入する。
非教師付き特徴選択のための統一目的関数は、$ell_2,1$-norm正規化によってスパースな方法で提案される。
実験の結果,提案手法は最先端のアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-21T13:39:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。