論文の概要: Efficient Uncertainty Estimation for LLM-based Entity Linking in Tabular Data
- arxiv url: http://arxiv.org/abs/2510.01251v1
- Date: Wed, 24 Sep 2025 10:44:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.756765
- Title: Efficient Uncertainty Estimation for LLM-based Entity Linking in Tabular Data
- Title(参考訳): 語彙データにおけるLCMに基づくエンティティリンクの効率よい不確かさ推定
- Authors: Carlo Bono, Federico Belotti, Matteo Palmonari,
- Abstract要約: トークンレベルの特徴量を用いて単発出力から不確実性を推定するための自己教師型アプローチについて検討する。
得られた不確実性推定は,低精度出力の検出に極めて有効であることを示す。
これは計算コストのごく一部で達成され、不確実性対策をEntity Linkingに費用対効果で統合するのをサポートする。
- 参考スコア(独自算出の注目度): 0.3593955557310285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linking textual values in tabular data to their corresponding entities in a Knowledge Base is a core task across a variety of data integration and enrichment applications. Although Large Language Models (LLMs) have shown State-of-The-Art performance in Entity Linking (EL) tasks, their deployment in real-world scenarios requires not only accurate predictions but also reliable uncertainty estimates, which require resource-demanding multi-shot inference, posing serious limits to their actual applicability. As a more efficient alternative, we investigate a self-supervised approach for estimating uncertainty from single-shot LLM outputs using token-level features, reducing the need for multiple generations. Evaluation is performed on an EL task on tabular data across multiple LLMs, showing that the resulting uncertainty estimates are highly effective in detecting low-accuracy outputs. This is achieved at a fraction of the computational cost, ultimately supporting a cost-effective integration of uncertainty measures into LLM-based EL workflows. The method offers a practical way to incorporate uncertainty estimation into EL workflows with limited computational overhead.
- Abstract(参考訳): 表形式のデータのテキスト値を知識ベース内の対応するエンティティにリンクすることは、さまざまなデータ統合および拡張アプリケーションにおける中核的なタスクである。
大規模言語モデル(LLM)は、エンティティリンク(EL)タスクにおけるステート・オブ・ザ・アートのパフォーマンスを示しているが、現実のシナリオへの展開には正確な予測だけでなく、リソース要求のマルチショット推論を必要とする信頼性の高い不確実性推定も必要であり、実際の適用性に重大な制限を課している。
より効率的な代替手段として,トークンレベルの特徴を用いた単一ショットLCM出力の不確実性を推定する自己教師型アプローチについて検討し,複数世代の必要性を低減した。
複数のLCMにまたがる表データのELタスク上で評価を行い、その結果の不確実性推定が低精度出力の検出に極めて有効であることを示す。
これは計算コストのごく一部で達成され、最終的にLLMベースのELワークフローへの不確実性対策の費用対効果の統合をサポートする。
この手法は,計算オーバーヘッドの少ないELワークフローに不確実性推定を組み込むための実用的な方法を提供する。
関連論文リスト
- The LLM Already Knows: Estimating LLM-Perceived Question Difficulty via Hidden Representations [33.65540900920885]
大規模言語モデル(LLM)によって知覚される入力質問の難しさを推定することは、正確な性能評価と適応推論に不可欠である。
本稿では,LLMが生成する隠れ表現のみを利用する難易度推定手法を提案する。
論文 参考訳(メタデータ) (2025-09-16T09:38:41Z) - Efficient Out-of-Scope Detection in Dialogue Systems via Uncertainty-Driven LLM Routing [6.579756339673344]
OOS(Out-of-scope)インテント検出は、タスク指向対話システム(TODS)において重要な課題である。
我々は,不確実性モデリングと細調整された大言語モデル(LLM)を組み合わせて,効率よく正確なOOS検出を行う,新しい単純なモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-02T09:51:41Z) - Efficient Uncertainty Estimation via Distillation of Bayesian Large Language Models [12.69571386421462]
本稿では,不確実性推定のためのテスト時間サンプリングの必要性を解消する可能性を検討する。
既成のベイズ式LLMを非ベイズ式LLMに蒸留し, 予測分布のばらつきを最小限に抑える。
実験により,トレーニングデータにおける不確実性推定能力は,未確認テストデータにうまく一般化できることが実証された。
論文 参考訳(メタデータ) (2025-05-16T22:26:03Z) - Confident or Seek Stronger: Exploring Uncertainty-Based On-device LLM Routing From Benchmarking to Generalization [61.02719787737867]
大規模言語モデル(LLM)はますますエッジデバイスにデプロイされ、民主化されている。
1つの有望な解決策は不確実性に基づくSLMルーティングであり、SLM上での低信頼応答が発生すると、高い要求を強いLCMにオフロードする。
我々は1500以上の設定でSLMからLLMへの不確実性駆動型ルーティング戦略のベンチマークと一般化を包括的に調査する。
論文 参考訳(メタデータ) (2025-02-06T18:59:11Z) - Optimizing Pretraining Data Mixtures with LLM-Estimated Utility [52.08428597962423]
大規模な言語モデルは、高品質なトレーニングデータの増加によって改善される。
トークンカウントは手動と学習の混合よりも優れており、データセットのサイズと多様性に対する単純なアプローチが驚くほど効果的であることを示している。
UtiliMaxは,手動ベースラインよりも最大10.6倍のスピードアップを達成することで,トークンベースの200ドルを拡大する。また,LLMを活用して小さなサンプルからデータユーティリティを推定するモデル推定データユーティリティ(MEDU)は,計算要求を$simxで削減し,アブレーションベースのパフォーマンスに適合する。
論文 参考訳(メタデータ) (2025-01-20T21:10:22Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
本稿では,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練する新しいメンバーシップ推論手法EM-MIAを紹介する。
EM-MIAはWikiMIAで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - Uncertainty Estimation and Quantification for LLMs: A Simple Supervised Approach [6.209293868095268]
LLMにおける不確実性推定と校正の問題について検討する。
LLMの応答の不確かさを推定するためにラベル付きデータセットを利用する教師付きアプローチを提案する。
本手法は,ブラックボックス,グレイボックス,ホワイトボックスなど,モデルアクセシビリティの異なるレベルに適応し,実装が容易である。
論文 参考訳(メタデータ) (2024-04-24T17:10:35Z) - Estimating Large Language Model Capabilities without Labeled Test Data [51.428562302037534]
大規模言語モデル(LLM)は、ほんの数例からICL(In-context Learning)を実行するという印象的な能力を持っている。
ICLの精度推定タスクを提案し、新しいタスクで文脈内学習を行う場合のLLMの精度を予測する。
論文 参考訳(メタデータ) (2023-05-24T06:55:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。