論文の概要: Successfully Guiding Humans with Imperfect Instructions by Highlighting Potential Errors and Suggesting Corrections
- arxiv url: http://arxiv.org/abs/2402.16973v2
- Date: Sat, 05 Oct 2024 01:21:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:42:10.015000
- Title: Successfully Guiding Humans with Imperfect Instructions by Highlighting Potential Errors and Suggesting Corrections
- Title(参考訳): 照明電位誤差と推奨補正による不完全な指示を受けたヒトの誘導
- Authors: Lingjun Zhao, Khanh Nguyen, Hal Daumé III,
- Abstract要約: HEARは、シミュレーションされた住宅環境において、人間をガイドできるシステムである。
HEARはユーザーに命令の潜在的なエラーを警告し、修正を提案する。
80名のユーザによる評価では,HEARは成功率13%,最終位置誤差距離29%の削減を実現している。
- 参考スコア(独自算出の注目度): 26.501767983660518
- License:
- Abstract: Language models will inevitably err in situations with which they are unfamiliar. However, by effectively communicating uncertainties, they can still guide humans toward making sound decisions in those contexts. We demonstrate this idea by developing HEAR, a system that can successfully guide humans in simulated residential environments despite generating potentially inaccurate instructions. Diverging from systems that provide users with only the instructions they generate, HEAR warns users of potential errors in its instructions and suggests corrections. This rich uncertainty information effectively prevents misguidance and reduces the search space for users. Evaluation with 80 users shows that HEAR achieves a 13% increase in success rate and a 29% reduction in final location error distance compared to only presenting instructions to users. Interestingly, we find that offering users possibilities to explore, HEAR motivates them to make more attempts at the task, ultimately leading to a higher success rate. To our best knowledge, this work is the first to show the practical benefits of uncertainty communication in a long-horizon sequential decision-making problem.
- Abstract(参考訳): 言語モデルは、不慣れな状況において必然的に悪化する。
しかし、不確実性を効果的に伝えることで、これらの文脈で健全な決定を下すよう人間を導くことができる。
このアイデアを実証するために、シミュレーションされた住宅環境において、不正確な指示を発生させることなく、人間を誘導するシステムであるHEARを開発した。
ユーザが生成した命令のみを提供するシステムから切り離され、HEARはユーザに命令の潜在的なエラーを警告し、修正を提案する。
この豊富な不確実性情報は、誤認を効果的に防止し、ユーザの検索スペースを削減する。
80名のユーザによる評価では,HEARは13%の成功率の向上と最終位置誤差距離の29%削減を実現している。
興味深いことに、ユーザを探索する可能性を提供することで、HEARはそのタスクにより多くの試みを行うことを動機付け、最終的にはより高い成功率につながります。
我々の知る限り、この研究は、長期にわたるシーケンシャルな意思決定問題において、不確実性通信の実践的なメリットを示す最初のものである。
関連論文リスト
- Failures Are Fated, But Can Be Faded: Characterizing and Mitigating Unwanted Behaviors in Large-Scale Vision and Language Models [7.736445799116692]
多くのタスクで驚くほどうまく機能しているように見える大きなディープニューラルネットワークでは、精度、社会的バイアス、人間の価値観との整合性に関連するいくつかの障害も観察します。
本研究では,事前学習した識別モデルと生成モデルを用いて,エンフディープ強化学習を用いて,障害モードの景観を探索・構築するポストホック手法を提案する。
提案手法の有効性を,コンピュータビジョン,自然言語処理,視覚言語タスクで実証的に示す。
論文 参考訳(メタデータ) (2024-06-11T10:45:41Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Cognitive Semantic Communication Systems Driven by Knowledge Graph:
Principle, Implementation, and Performance Evaluation [74.38561925376996]
単一ユーザと複数ユーザのコミュニケーションシナリオに対して,認知意味コミュニケーションフレームワークが2つ提案されている。
知識グラフから推論規則をマイニングすることにより,効果的な意味補正アルゴリズムを提案する。
マルチユーザ認知型セマンティックコミュニケーションシステムにおいて,異なるユーザのメッセージを識別するために,メッセージ復元アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-15T12:01:43Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Human-AI communication for human-human communication: Applying
interpretable unsupervised anomaly detection to executive coaching [33.88509725285237]
本稿では,AIに基づく対話システム構築における教師なし異常検出の適用の可能性について論じる。
このアプローチの鍵となる考え方は、専門家のコーチがオープンな解釈を解き放つ余地を残すことです。
このアプローチの適用性は他の領域で検証されるべきですが、教師なしの異常検出を利用してAIベースの対話システムを構築するというアイデアは、人間とAIのコミュニケーションの別の方向に光を当てるでしょう。
論文 参考訳(メタデータ) (2022-06-22T11:32:59Z) - Using Human-Guided Causal Knowledge for More Generalized Robot Task
Planning [0.0]
AIとは異なり、人間は移動可能なソリューションを見つけることに精通している。
我々は、ロボットが新しい環境に一般化できるソリューションを見つけるのを助けるために、人間の指導による因果知識を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-09T23:46:44Z) - Deep Interpretable Models of Theory of Mind For Human-Agent Teaming [0.7734726150561086]
我々は、他の観測対象の意図をモデル化するための解釈可能なモジュラー・ニューラル・フレームワークを開発する。
Minecraftの検索および救助タスクで、人間の参加者のデータに関する実験を行い、アプローチの有効性を実証します。
論文 参考訳(メタデータ) (2021-04-07T06:18:58Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。