論文の概要: Anthropomimetic Uncertainty: What Verbalized Uncertainty in Language Models is Missing
- arxiv url: http://arxiv.org/abs/2507.10587v1
- Date: Fri, 11 Jul 2025 14:07:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.754275
- Title: Anthropomimetic Uncertainty: What Verbalized Uncertainty in Language Models is Missing
- Title(参考訳): 人類学的な不確かさ:言語モデルにおける言語モデルにおける言語不確かさの欠如
- Authors: Dennis Ulmer, Alexandra Lorson, Ivan Titov, Christian Hardmeier,
- Abstract要約: 我々は人為的不確実性について論じる。つまり、直感的で信頼に値する不確実性コミュニケーションは、ユーザに対してある程度の言語的信頼とパーソナライズを必要とする。
我々は、不確実性に関する人間と機械のコミュニケーションにおけるユニークな要因を指摘し、機械の不確実性通信に影響を与えるデータのバイアスを分解する。
- 参考スコア(独自算出の注目度): 66.04926909181653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human users increasingly rely on natural language interactions with large language models (LLMs) in order to receive help on a large variety of tasks and problems. However, the trustworthiness and perceived legitimacy of LLMs is undermined by the fact that their output is frequently stated in very confident terms, even when its accuracy is questionable. Therefore, there is a need to signal the confidence of the language model to a user in order to reap the benefits of human-machine collaboration and mitigate potential harms. Verbalized uncertainty is the expression of confidence with linguistic means, an approach that integrates perfectly into language-based interfaces. Nevertheless, most recent research in natural language processing (NLP) overlooks the nuances surrounding human uncertainty communication and the data biases that influence machine uncertainty communication. We argue for anthropomimetic uncertainty, meaning that intuitive and trustworthy uncertainty communication requires a degree of linguistic authenticity and personalization to the user, which could be achieved by emulating human communication. We present a thorough overview over the research in human uncertainty communication, survey ongoing research, and perform additional analyses to demonstrate so-far overlooked biases in verbalized uncertainty. We conclude by pointing out unique factors in human-machine communication of uncertainty and deconstruct anthropomimetic uncertainty into future research directions for NLP.
- Abstract(参考訳): 人間のユーザーは、様々なタスクや問題への支援を受けるために、大きな言語モデル(LLM)との自然言語の相互作用にますます依存している。
しかしながら、LCMの信頼性と正当性に対する認識は、その正確性に疑問が持たれている場合でも、その出力が極めて確実な条件で頻繁に述べられているという事実によって損なわれている。
そのため,人間と機械の協調による利益を享受し,潜在的な害を軽減するためには,言語モデルの信頼性をユーザに提供する必要がある。
言語的不確実性は言語的手段による信頼の表現であり、言語ベースのインターフェースに完全に統合されるアプローチである。
しかしながら、自然言語処理(NLP)に関する最近の研究は、人間の不確実性通信とマシンの不確実性通信に影響を与えるデータバイアスを取り巻くニュアンスを見落としている。
人間のコミュニケーションをエミュレートすることで達成できる言語的信頼とパーソナライゼーションの度合いが必要な,直感的で信頼に値する不確実性通信である,人類学的な不確実性について論じる。
本稿では,人間の不確実性コミュニケーションの研究,現在進行中の調査,および言語的不確実性における見過ごされたバイアスを示すための追加分析について概説する。
我々は,NLP研究の今後の方向性について,人間と機械のコミュニケーションの不確かさと人為的不確実性の分解に特有の要因を指摘する。
関連論文リスト
- Enhancing Trust in Large Language Models with Uncertainty-Aware Fine-Tuning [10.457661605916435]
大規模言語モデル(LLM)は、その印象的な推論と質問応答能力によって自然言語処理の分野に革命をもたらした。
LLMは時に、幻覚として知られる、信頼できるが誤った情報を生成する傾向にある。
本稿では,決定論の原理に基づく不確実性を考慮した因果的言語モデリング損失関数を提案する。
論文 参考訳(メタデータ) (2024-12-03T23:14:47Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Learning and communication pressures in neural networks: Lessons from emergent communication [5.371337604556311]
ニューラルエージェントの言語行動と人間とのミスマッチが解決された3症例について検討した。
我々は、コミュニケーションの成功、生産努力、学習可能性、その他の心理・社会言語学的要因といった、言語学習と台頭のための重要なプレッシャーを識別する。
論文 参考訳(メタデータ) (2024-03-21T14:33:34Z) - Relying on the Unreliable: The Impact of Language Models' Reluctance to Express Uncertainty [53.336235704123915]
提案手法は, 自然言語による応答の信頼度と, LMによる不確実性に応答して下流ユーザーがどのように振る舞うかを考察する。
誤応答を生じた場合でも,LMは疑問に答える際の不確実性を表現することに消極的であることがわかった。
我々は、人間の実験によって、LM過信のリスクを検証し、ユーザがLM世代に大きく依存していることを示します。
最後に、トレーニング後のアライメントに使用する嗜好アノテートデータセットを調査し、不確実性のあるテキストに対して人間がバイアスを受けていることを確認する。
論文 参考訳(メタデータ) (2024-01-12T18:03:30Z) - Uncertainty in Natural Language Processing: Sources, Quantification, and
Applications [56.130945359053776]
NLP分野における不確実性関連作業の総合的なレビューを行う。
まず、自然言語の不確実性の原因を、入力、システム、出力の3つのタイプに分類する。
我々は,NLPにおける不確実性推定の課題について論じ,今後の方向性について論じる。
論文 参考訳(メタデータ) (2023-06-05T06:46:53Z) - Navigating the Grey Area: How Expressions of Uncertainty and
Overconfidence Affect Language Models [74.07684768317705]
LMはプロンプトにおける確実性のマーカーに非常に敏感であり、アクーは80%以上変化している。
その結果,高い確実性の表現は低い表現に比べて精度が低下し,事実動詞が性能を損なうのに対して,明らかな表現はパフォーマンスに寄与することがわかった。
これらの関連性は、LMが真に不確実性を反映するのではなく、観察された言語の使用に基づいていることを示唆している。
論文 参考訳(メタデータ) (2023-02-26T23:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。