論文の概要: Successfully Guiding Humans with Imperfect Instructions by Highlighting Potential Errors and Suggesting Corrections
- arxiv url: http://arxiv.org/abs/2402.16973v2
- Date: Sat, 05 Oct 2024 01:21:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:42:10.015000
- Title: Successfully Guiding Humans with Imperfect Instructions by Highlighting Potential Errors and Suggesting Corrections
- Title(参考訳): 照明電位誤差と推奨補正による不完全な指示を受けたヒトの誘導
- Authors: Lingjun Zhao, Khanh Nguyen, Hal Daumé III,
- Abstract要約: HEARは、シミュレーションされた住宅環境において、人間をガイドできるシステムである。
HEARはユーザーに命令の潜在的なエラーを警告し、修正を提案する。
80名のユーザによる評価では,HEARは成功率13%,最終位置誤差距離29%の削減を実現している。
- 参考スコア(独自算出の注目度): 26.501767983660518
- License:
- Abstract: Language models will inevitably err in situations with which they are unfamiliar. However, by effectively communicating uncertainties, they can still guide humans toward making sound decisions in those contexts. We demonstrate this idea by developing HEAR, a system that can successfully guide humans in simulated residential environments despite generating potentially inaccurate instructions. Diverging from systems that provide users with only the instructions they generate, HEAR warns users of potential errors in its instructions and suggests corrections. This rich uncertainty information effectively prevents misguidance and reduces the search space for users. Evaluation with 80 users shows that HEAR achieves a 13% increase in success rate and a 29% reduction in final location error distance compared to only presenting instructions to users. Interestingly, we find that offering users possibilities to explore, HEAR motivates them to make more attempts at the task, ultimately leading to a higher success rate. To our best knowledge, this work is the first to show the practical benefits of uncertainty communication in a long-horizon sequential decision-making problem.
- Abstract(参考訳): 言語モデルは、不慣れな状況において必然的に悪化する。
しかし、不確実性を効果的に伝えることで、これらの文脈で健全な決定を下すよう人間を導くことができる。
このアイデアを実証するために、シミュレーションされた住宅環境において、不正確な指示を発生させることなく、人間を誘導するシステムであるHEARを開発した。
ユーザが生成した命令のみを提供するシステムから切り離され、HEARはユーザに命令の潜在的なエラーを警告し、修正を提案する。
この豊富な不確実性情報は、誤認を効果的に防止し、ユーザの検索スペースを削減する。
80名のユーザによる評価では,HEARは13%の成功率の向上と最終位置誤差距離の29%削減を実現している。
興味深いことに、ユーザを探索する可能性を提供することで、HEARはそのタスクにより多くの試みを行うことを動機付け、最終的にはより高い成功率につながります。
我々の知る限り、この研究は、長期にわたるシーケンシャルな意思決定問題において、不確実性通信の実践的なメリットを示す最初のものである。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - No Regrets: Investigating and Improving Regret Approximations for Curriculum Discovery [53.08822154199948]
非教師なし環境設計(UED)手法は、エージェントがイン・オブ・アウト・ディストリビューションタスクに対して堅牢になることを約束する適応的カリキュラムとして近年注目を集めている。
本研究は,既存のUEDメソッドがいかにトレーニング環境を選択するかを検討する。
本研究では,学習性の高いシナリオを直接訓練する手法を開発した。
論文 参考訳(メタデータ) (2024-08-27T14:31:54Z) - Know the Unknown: An Uncertainty-Sensitive Method for LLM Instruction Tuning [18.283963879468466]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚のような課題に直面している。
本研究では,モデルの知識境界を認識する能力を向上させるために,不確実性感性チューニングと呼ばれる新しい手法を提案する。
実験結果から,提案手法が不確実性領域の同定能力を高めることが示唆された。
論文 参考訳(メタデータ) (2024-06-14T14:56:04Z) - I2EDL: Interactive Instruction Error Detection and Localization [65.25839671641218]
連続環境(IVLN-CE)における対話型VLNの新たな課題を提案する。
これにより、VLN-CEナビゲーション中にエージェントがユーザと対話し、命令エラーに関する疑念を検証できる。
我々は、事前学習したモジュールを利用して命令エラーを検出し、テキスト入力と過去の観察を相互参照することで、命令中のそれらをピンポイントする。
論文 参考訳(メタデータ) (2024-06-07T16:52:57Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - Beyond Trial-and-Error: Predicting User Abandonment After a Moderation Intervention [0.6918368994425961]
本稿では,Redditにおけるモデレーション介入の効果を予測する新しいタスクを提案する。
ユーザの活動、毒性、関係性、書き込みスタイルに関する情報を伝達する142の機能のセットを計算するために、138万の投稿のデータセットを使用します。
本研究は,モデレーション介入の効果を予測できる可能性を示し,予測コンテンツのモデレーションにおける新たな研究方向の道を開くものである。
論文 参考訳(メタデータ) (2024-04-23T08:52:41Z) - Gaining Wisdom from Setbacks: Aligning Large Language Models via Mistake
Analysis [127.85293480405082]
大規模言語モデル(LLM)の急速な開発は、多くの機会を提供するだけでなく、重要な課題も提示している。
既存のアライメント手法は、人間による注釈付き、欠陥のない命令応答ペアを利用することで、LLMを好ましい結果に導くのが一般的である。
本研究は誤り解析に基づく新しいアライメント手法を提案する。ミスの原因と回避方法を学習するために,LLMを誤った内容に故意に公開する手法である。
論文 参考訳(メタデータ) (2023-10-16T14:59:10Z) - CAPE: Corrective Actions from Precondition Errors using Large Language
Models [8.547766794082184]
本研究では,計画中の条件誤差を解決するための修正行動を提案する新しい手法を提案する。
CAPEは、アクション前提条件からの少数ショット推論を活用することにより、生成されたプランの品質を改善する。
そこでCAPEはSayCanに比べて76.49%の精度でタスク計画の正しさを向上する。
論文 参考訳(メタデータ) (2022-11-17T23:14:51Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。