論文の概要: Uncertainty Unveiled: Can Exposure to More In-context Examples Mitigate Uncertainty for Large Language Models?
- arxiv url: http://arxiv.org/abs/2505.21003v1
- Date: Tue, 27 May 2025 10:36:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.58379
- Title: Uncertainty Unveiled: Can Exposure to More In-context Examples Mitigate Uncertainty for Large Language Models?
- Title(参考訳): 不確実性: より大きな言語モデルに対する不確実性を軽減するために、より多くのコンテキスト内例への露出は可能か?
- Authors: Yifei Wang, Yu Sheng, Linjing Li, Daniel Zeng,
- Abstract要約: 予測の不確実性,信頼性に欠かせない側面に,事例の増加がどのような影響を及ぼすかを検討する。
以上の結果から,タスク固有の知識を注入することで,単純なタスクと複雑なタスクの完全不確実性を低減できることが判明した。
複雑なタスクに対して、これらの利点は、長い入力に関連するノイズや不確実性の増加に対処した後だけ現れる。
- 参考スコア(独自算出の注目度): 14.333412847910601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in handling long sequences have facilitated the exploration of long-context in-context learning (ICL). While much of the existing research emphasizes performance improvements driven by additional in-context examples, the influence on the trustworthiness of generated responses remains underexplored. This paper addresses this gap by investigating how increased examples influence predictive uncertainty, an essential aspect in trustworthiness. We begin by systematically quantifying the uncertainty of ICL with varying shot counts, analyzing the impact of example quantity. Through uncertainty decomposition, we introduce a novel perspective on performance enhancement, with a focus on epistemic uncertainty (EU). Our results reveal that additional examples reduce total uncertainty in both simple and complex tasks by injecting task-specific knowledge, thereby diminishing EU and enhancing performance. For complex tasks, these advantages emerge only after addressing the increased noise and uncertainty associated with longer inputs. Finally, we explore the evolution of internal confidence across layers, unveiling the mechanisms driving the reduction in uncertainty.
- Abstract(参考訳): 近年の長文シーケンス処理の進歩は、長文インコンテキスト学習(ICL)の探索に役立っている。
既存の研究の多くは、追加のコンテキスト内例によって引き起こされるパフォーマンス改善を強調しているが、生成したレスポンスの信頼性への影響はいまだ検討されていない。
本稿では, 予測の不確実性の増加が, 信頼性の欠如にどのように影響するかを検討することで, このギャップに対処する。
我々はまず,ICLの不確かさを様々なショット数で体系的に定量化し,実例量の影響を分析することから始める。
不確実性分解を通じて、我々は、てんかん性不確実性(EU)に焦点をあてて、パフォーマンス向上に関する新たな視点を導入する。
以上の結果から,タスク固有の知識を注入することで,簡単なタスクと複雑なタスクの両面での完全不確実性を低減し,EUの減少と性能の向上が図られた。
複雑なタスクに対して、これらの利点は、長い入力に関連するノイズや不確実性の増加に対処した後だけ現れる。
最後に、層間における内部信頼の進化について検討し、不確実性の低減を促すメカニズムを明らかにする。
関連論文リスト
- ConCISE: Confidence-guided Compression in Step-by-step Efficient Reasoning [75.1101108949743]
大規模推論モデル(LRM)は、Chain-of-Thought (CoT)プロンプトを介して複雑な推論タスクを強く行う。
LRMは冗長なコンテンツによる冗長なアウトプット、計算オーバーヘッドの増加、ユーザエクスペリエンスの低下に悩まされることが多い。
本稿では,推論中のモデルの信頼性を高めることによって推論チェーンを簡素化するフレームワークであるConCISEを提案する。
論文 参考訳(メタデータ) (2025-05-08T01:40:40Z) - A Survey of Efficient Reasoning for Large Reasoning Models: Language, Multimodality, and Beyond [88.5807076505261]
大規模推論モデル (LRM) は, 推論中におけるチェーン・オブ・ソート (CoT) の推論長を拡大することにより, 高い性能向上を示した。
懸念が高まっているのは、過度に長い推論の痕跡を生み出す傾向にある。
この非効率性は、トレーニング、推論、現実のデプロイメントに重大な課題をもたらす。
論文 参考訳(メタデータ) (2025-03-27T15:36:30Z) - Contextual Bandits in Payment Processing: Non-uniform Exploration and Supervised Learning at Adyen [0.0]
回帰オラクルは、一様でない探索と教師あり学習を組み合わせたものである。
我々は、大規模なグローバル決済プロセッサであるAdyenにおいて、現実の産業状況におけるこれらのアプローチを分析した。
回帰オラクルは性能を著しく向上させるが、厳密なアルゴリズムの仮定による課題を導入する。
論文 参考訳(メタデータ) (2024-11-30T19:45:23Z) - Ensured: Explanations for Decreasing the Epistemic Uncertainty in Predictions [1.2289361708127877]
認識の不確実性は、品質を説明するために重要な次元を付け加える。
我々は、この不確実性を特に狙う新しいタイプの説明を紹介します。
我々は、ユーザが最も信頼できる説明を識別できるように設計された新しい指標、保証されたランキングを導入する。
論文 参考訳(メタデータ) (2024-10-07T20:21:51Z) - Variable-Agnostic Causal Exploration for Reinforcement Learning [56.52768265734155]
強化学習のための新しいフレームワークVACERL(Variable-Agnostic Causal Exploration for Reinforcement Learning)を導入する。
本手法は,注目機構を用いて,重要変数に関連する重要な観測行動ステップを自動的に同定する。
これらのステップを接続する因果グラフを構築し、エージェントをタスク完了に対する因果的影響の大きい観察-作用ペアへと導く。
論文 参考訳(メタデータ) (2024-07-17T09:45:27Z) - Uncertainty-boosted Robust Video Activity Anticipation [72.14155465769201]
ビデオアクティビティの予測は、ロボットビジョンから自動運転まで幅広い応用可能性を受け入れることで、将来何が起こるかを予測することを目的としている。
近年の進展にもかかわらず、コンテンツ進化過程やイベントラベルの動的相関として反映されたデータ不確実性問題は、何らかの形で無視されている。
本研究では,予測結果の信頼性を示す不確実な値を生成する,不確実性を考慮した頑健なビデオアクティビティ予測フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-29T12:31:38Z) - Evidential uncertainty sampling for active learning [4.271684331748043]
アクティブラーニングにおける最近の研究は、モデル不確実性を再現可能で既約の不確実性に分解することに焦点を当てている。
本稿では,観測への依存を排除しつつ,計算過程を簡素化することを目的とする。
論文 参考訳(メタデータ) (2023-09-21T21:26:50Z) - Post-Abstention: Towards Reliably Re-Attempting the Abstained Instances
in QA [24.572043878403353]
本稿では, システムの「包括性」を高めることを目的として, 留置インスタンスの再帰を可能にするタスクである「保留後」について, 爆発的研究を行う。
11のQAデータセットに関する総合的な実験は、これらの手法がかなりのリスク改善につながることを示している。
論文 参考訳(メタデータ) (2023-05-02T22:40:41Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。