論文の概要: Successfully Guiding Humans with Imperfect Instructions by Highlighting
Potential Errors and Suggesting Corrections
- arxiv url: http://arxiv.org/abs/2402.16973v1
- Date: Mon, 26 Feb 2024 19:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 18:52:50.022826
- Title: Successfully Guiding Humans with Imperfect Instructions by Highlighting
Potential Errors and Suggesting Corrections
- Title(参考訳): 照明電位誤差と推奨補正による不完全な指示を受けたヒトの誘導
- Authors: Lingjun Zhao, Khanh Nguyen, Hal Daum\'e III
- Abstract要約: そこで本研究では,不完全な命令生成モデルと効果的なコミュニケーション機構を相補して,人間を指導する上でより効果的になることを示す。
この手法により,認知的負担を伴わずに,人間のナビゲーションエラーを最大29%削減できることを示す。
- 参考スコア(独自算出の注目度): 8.432152982202785
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper addresses the challenge of leveraging imperfect language models to
guide human decision-making in the context of a grounded navigation task. We
show that an imperfect instruction generation model can be complemented with an
effective communication mechanism to become more successful at guiding humans.
The communication mechanism we build comprises models that can detect potential
hallucinations in instructions and suggest practical alternatives, and an
intuitive interface to present that information to users. We show that this
approach reduces the human navigation error by up to 29% with no additional
cognitive burden. This result underscores the potential of integrating diverse
communication channels into AI systems to compensate for their imperfections
and enhance their utility for humans.
- Abstract(参考訳): 本稿では,不完全な言語モデルを活用して,ナビゲーションタスクのコンテキストにおける人間の意思決定を導くという課題に対処する。
不完全な命令生成モデルは、人間を誘導する上でより成功させる効果的なコミュニケーションメカニズムで補完できることを示す。
私たちが構築するコミュニケーションメカニズムは、命令の潜在的幻覚を検出し、実用的な代替案を提案するモデルと、その情報をユーザに提示するための直感的なインターフェースから構成される。
このアプローチは、人間のナビゲーションエラーを最大29%低減し、追加の認知的負担を伴わないことを示す。
この結果は、さまざまなコミュニケーションチャネルをAIシステムに統合し、不完全性を補い、人間の有用性を向上する可能性を示している。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - No Regrets: Investigating and Improving Regret Approximations for Curriculum Discovery [53.08822154199948]
非教師なし環境設計(UED)手法は、エージェントがイン・オブ・アウト・ディストリビューションタスクに対して堅牢になることを約束する適応的カリキュラムとして近年注目を集めている。
本研究は,既存のUEDメソッドがいかにトレーニング環境を選択するかを検討する。
本研究では,学習性の高いシナリオを直接訓練する手法を開発した。
論文 参考訳(メタデータ) (2024-08-27T14:31:54Z) - Know the Unknown: An Uncertainty-Sensitive Method for LLM Instruction Tuning [18.283963879468466]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚のような課題に直面している。
本研究では,モデルの知識境界を認識する能力を向上させるために,不確実性感性チューニングと呼ばれる新しい手法を提案する。
実験結果から,提案手法が不確実性領域の同定能力を高めることが示唆された。
論文 参考訳(メタデータ) (2024-06-14T14:56:04Z) - I2EDL: Interactive Instruction Error Detection and Localization [65.25839671641218]
連続環境(IVLN-CE)における対話型VLNの新たな課題を提案する。
これにより、VLN-CEナビゲーション中にエージェントがユーザと対話し、命令エラーに関する疑念を検証できる。
我々は、事前学習したモジュールを利用して命令エラーを検出し、テキスト入力と過去の観察を相互参照することで、命令中のそれらをピンポイントする。
論文 参考訳(メタデータ) (2024-06-07T16:52:57Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - Beyond Trial-and-Error: Predicting User Abandonment After a Moderation Intervention [0.6918368994425961]
本稿では,Redditにおけるモデレーション介入の効果を予測する新しいタスクを提案する。
ユーザの活動、毒性、関係性、書き込みスタイルに関する情報を伝達する142の機能のセットを計算するために、138万の投稿のデータセットを使用します。
本研究は,モデレーション介入の効果を予測できる可能性を示し,予測コンテンツのモデレーションにおける新たな研究方向の道を開くものである。
論文 参考訳(メタデータ) (2024-04-23T08:52:41Z) - Gaining Wisdom from Setbacks: Aligning Large Language Models via Mistake
Analysis [127.85293480405082]
大規模言語モデル(LLM)の急速な開発は、多くの機会を提供するだけでなく、重要な課題も提示している。
既存のアライメント手法は、人間による注釈付き、欠陥のない命令応答ペアを利用することで、LLMを好ましい結果に導くのが一般的である。
本研究は誤り解析に基づく新しいアライメント手法を提案する。ミスの原因と回避方法を学習するために,LLMを誤った内容に故意に公開する手法である。
論文 参考訳(メタデータ) (2023-10-16T14:59:10Z) - CAPE: Corrective Actions from Precondition Errors using Large Language
Models [8.547766794082184]
本研究では,計画中の条件誤差を解決するための修正行動を提案する新しい手法を提案する。
CAPEは、アクション前提条件からの少数ショット推論を活用することにより、生成されたプランの品質を改善する。
そこでCAPEはSayCanに比べて76.49%の精度でタスク計画の正しさを向上する。
論文 参考訳(メタデータ) (2022-11-17T23:14:51Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。