論文の概要: Act or Clarify? Modeling Sensitivity to Uncertainty and Cost in Communication
- arxiv url: http://arxiv.org/abs/2602.02843v2
- Date: Wed, 04 Feb 2026 07:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 15:07:33.799888
- Title: Act or Clarify? Modeling Sensitivity to Uncertainty and Cost in Communication
- Title(参考訳): 行為・明確化 : コミュニケーションにおける不確実性とコストに対する感受性のモデル化
- Authors: Polina Tsvilodub, Karl Mulligan, Todd Snider, Robert D. Hawkins, Michael Franke,
- Abstract要約: コミュニケーション設定では、不確実性を減らす重要な方法は、明確化質問(CQ)を問うことである。
我々は、CQを問う決定は、文脈の不確実性と代替行動のコストの両方に依存すると予測する。
我々は、この相互作用を期待された後悔に基づく計算モデルで定式化する。
- 参考スコア(独自算出の注目度): 4.986551765990419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When deciding how to act under uncertainty, agents may choose to act to reduce uncertainty or they may act despite that uncertainty. In communicative settings, an important way of reducing uncertainty is by asking clarification questions (CQs). We predict that the decision to ask a CQ depends on both contextual uncertainty and the cost of alternative actions, and that these factors interact: uncertainty should matter most when acting incorrectly is costly. We formalize this interaction in a computational model based on expected regret: how much an agent stands to lose by acting now rather than with full information. We test these predictions in two experiments, one examining purely linguistic responses to questions and another extending to choices between clarification and non-linguistic action. Taken together, our results suggest a rational tradeoff: humans tend to seek clarification proportional to the risk of substantial loss when acting under uncertainty.
- Abstract(参考訳): 不確実性の下でどのように行動するかを決めるとき、エージェントは不確実性を減らすために行動するか、不確実性にもかかわらず行動するかを選択する。
コミュニケーション的設定では、不確実性を減らす重要な方法は、明確化質問(CQ)を問うことである。
我々は、CQを問う決定は文脈的不確実性と代替行動のコストの両方に依存し、これらの要因が相互作用する、と予測する。
我々は、この相互作用を、期待された後悔に基づく計算モデルで形式化する。
これらの予測を2つの実験で検証した。1つは質問に対する純粋に言語的応答を検証し、もう1つは明確化と非言語的行動の選択肢まで拡張する。
人間は不確実性の下で行動するときの実質的な損失のリスクに比例して明確化を求める傾向がある。
関連論文リスト
- Position: Uncertainty Quantification Needs Reassessment for Large-language Model Agents [19.974114160377045]
このポジションペーパーでは、従来の不確実性の二分法は、LLMエージェントが操作するオープンでインタラクティブな設定にはあまりに制限されていると論じている。
このような人間とコンピュータの相互作用における不確実性に着目した3つの新しい研究指針を提案する。
論文 参考訳(メタデータ) (2025-05-28T17:59:08Z) - Does Knowledge About Perceptual Uncertainty Help an Agent in Automated Driving? [9.729293160819038]
エージェントの行動が不確実な知覚にどのように影響されるかを検討する。
我々は、与えられたエージェントの知覚を摂動させることにより、観測空間における不確実性を導入する。
本実験は, 摂動知覚によってモデル化された信頼性の低い観測空間が, エージェントの防御駆動行動を引き起こすことを示す。
論文 参考訳(メタデータ) (2025-02-17T14:56:25Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Evaluating Theory of (an uncertain) Mind: Predicting the Uncertain Beliefs of Others in Conversation Forecasting [29.892041865029803]
対話における他者の不確実性をモデル化するために,新たなタスクスイート,挑戦言語モデル(LM)を提案する。
我々は、インターロケータ自体を予測者とみなし、インターロケータの不確実性を予測するようLMに求めている。
LMは、他者の不確実性に最大7%のばらつきを説明できるが、タスクの難しさと将来の仕事の余地を強調している。
論文 参考訳(メタデータ) (2024-09-23T13:05:25Z) - Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - Asking the Right Question at the Right Time: Human and Model Uncertainty
Guidance to Ask Clarification Questions [2.3838507844983248]
モデルの不確実性は、人間の明確化と探索の振る舞いを反映しないことを示す。
本稿では,モデル不確実性推定に基づく明確化問題の生成手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T16:15:30Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。