論文の概要: Act or Clarify? Modeling Sensitivity to Uncertainty and Cost in Communication
- arxiv url: http://arxiv.org/abs/2602.02843v2
- Date: Wed, 04 Feb 2026 07:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 15:07:33.799888
- Title: Act or Clarify? Modeling Sensitivity to Uncertainty and Cost in Communication
- Title(参考訳): 行為・明確化 : コミュニケーションにおける不確実性とコストに対する感受性のモデル化
- Authors: Polina Tsvilodub, Karl Mulligan, Todd Snider, Robert D. Hawkins, Michael Franke,
- Abstract要約: コミュニケーション設定では、不確実性を減らす重要な方法は、明確化質問(CQ)を問うことである。
我々は、CQを問う決定は、文脈の不確実性と代替行動のコストの両方に依存すると予測する。
我々は、この相互作用を期待された後悔に基づく計算モデルで定式化する。
- 参考スコア(独自算出の注目度): 4.986551765990419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When deciding how to act under uncertainty, agents may choose to act to reduce uncertainty or they may act despite that uncertainty. In communicative settings, an important way of reducing uncertainty is by asking clarification questions (CQs). We predict that the decision to ask a CQ depends on both contextual uncertainty and the cost of alternative actions, and that these factors interact: uncertainty should matter most when acting incorrectly is costly. We formalize this interaction in a computational model based on expected regret: how much an agent stands to lose by acting now rather than with full information. We test these predictions in two experiments, one examining purely linguistic responses to questions and another extending to choices between clarification and non-linguistic action. Taken together, our results suggest a rational tradeoff: humans tend to seek clarification proportional to the risk of substantial loss when acting under uncertainty.
- Abstract(参考訳): 不確実性の下でどのように行動するかを決めるとき、エージェントは不確実性を減らすために行動するか、不確実性にもかかわらず行動するかを選択する。
コミュニケーション的設定では、不確実性を減らす重要な方法は、明確化質問(CQ)を問うことである。
我々は、CQを問う決定は文脈的不確実性と代替行動のコストの両方に依存し、これらの要因が相互作用する、と予測する。
我々は、この相互作用を、期待された後悔に基づく計算モデルで形式化する。
これらの予測を2つの実験で検証した。1つは質問に対する純粋に言語的応答を検証し、もう1つは明確化と非言語的行動の選択肢まで拡張する。
人間は不確実性の下で行動するときの実質的な損失のリスクに比例して明確化を求める傾向がある。
関連論文リスト
- Do not Abstain! Identify and Solve the Uncertainty [25.744791822890036]
bftextConfuseBenchは、主に文書不足、限られた能力、クエリのあいまいさの3つのタイプの不確実性に焦点を当てたベンチマークである。
実験によると、現在のLLMは不確実性の根本原因を正確に特定し、解決するのに苦労している。
まず、元のクエリの紛らわしい側面を浮き彫りにするコンテキストアウェアな問い合わせを生成します。
そして,質問の答えの特異性に基づいて不確実性の原因を判断する。
論文 参考訳(メタデータ) (2025-06-01T02:15:17Z) - Position: Uncertainty Quantification Needs Reassessment for Large-language Model Agents [19.974114160377045]
このポジションペーパーでは、従来の不確実性の二分法は、LLMエージェントが操作するオープンでインタラクティブな設定にはあまりに制限されていると論じている。
このような人間とコンピュータの相互作用における不確実性に着目した3つの新しい研究指針を提案する。
論文 参考訳(メタデータ) (2025-05-28T17:59:08Z) - Calibrating Verbal Uncertainty as a Linear Feature to Reduce Hallucinations [51.92795774118647]
LLMの表現空間における1つの線形特徴によって「動詞の不確実性」が支配されることがわかった。
これはモデルの実際の意味的不確実性と適度な相関しか持たないことを示す。
論文 参考訳(メタデータ) (2025-03-18T17:51:04Z) - Does Knowledge About Perceptual Uncertainty Help an Agent in Automated Driving? [9.729293160819038]
エージェントの行動が不確実な知覚にどのように影響されるかを検討する。
我々は、与えられたエージェントの知覚を摂動させることにより、観測空間における不確実性を導入する。
本実験は, 摂動知覚によってモデル化された信頼性の低い観測空間が, エージェントの防御駆動行動を引き起こすことを示す。
論文 参考訳(メタデータ) (2025-02-17T14:56:25Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Evaluating Theory of (an uncertain) Mind: Predicting the Uncertain Beliefs of Others in Conversation Forecasting [29.892041865029803]
対話における他者の不確実性をモデル化するために,新たなタスクスイート,挑戦言語モデル(LM)を提案する。
我々は、インターロケータ自体を予測者とみなし、インターロケータの不確実性を予測するようLMに求めている。
LMは、他者の不確実性に最大7%のばらつきを説明できるが、タスクの難しさと将来の仕事の余地を強調している。
論文 参考訳(メタデータ) (2024-09-23T13:05:25Z) - Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - Uncertainty-Based Abstention in LLMs Improves Safety and Reduces Hallucinations [63.330182403615886]
大きな言語モデル(LLM)の実践的デプロイに対する大きな障壁は、信頼性の欠如である。
このことが特に顕著な3つの状況は、正しさ、未解決の質問に対する幻覚、安全性である。
人間のように、不確実性を理解する能力があるため、私たちが知らない質問への答えを控えるべきです。
論文 参考訳(メタデータ) (2024-04-16T23:56:38Z) - Asking the Right Question at the Right Time: Human and Model Uncertainty
Guidance to Ask Clarification Questions [2.3838507844983248]
モデルの不確実性は、人間の明確化と探索の振る舞いを反映しないことを示す。
本稿では,モデル不確実性推定に基づく明確化問題の生成手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T16:15:30Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。