論文の概要: Pointing out Human Answer Mistakes in a Goal-Oriented Visual Dialogue
- arxiv url: http://arxiv.org/abs/2309.10375v1
- Date: Tue, 19 Sep 2023 07:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:55:09.981197
- Title: Pointing out Human Answer Mistakes in a Goal-Oriented Visual Dialogue
- Title(参考訳): ゴール指向視覚対話における人間の答え誤りの指摘
- Authors: Ryosuke Oshima, Seitaro Shinagawa, Hideki Tsunashima, Qi Feng, Shigeo
Morishima
- Abstract要約: 現実のシナリオは、時に人間のミスを伴い、インテリジェントなエージェントが失敗する可能性がある。
人間の解答ミスは質問の種類によって異なり、人間の誤答の未使用データ集合を分析して視覚対話を反転させることが示される。
- 参考スコア(独自算出の注目度): 10.17712881221346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective communication between humans and intelligent agents has promising
applications for solving complex problems. One such approach is visual
dialogue, which leverages multimodal context to assist humans. However,
real-world scenarios occasionally involve human mistakes, which can cause
intelligent agents to fail. While most prior research assumes perfect answers
from human interlocutors, we focus on a setting where the agent points out
unintentional mistakes for the interlocutor to review, better reflecting
real-world situations. In this paper, we show that human answer mistakes depend
on question type and QA turn in the visual dialogue by analyzing a previously
unused data collection of human mistakes. We demonstrate the effectiveness of
those factors for the model's accuracy in a pointing-human-mistake task through
experiments using a simple MLP model and a Visual Language Model.
- Abstract(参考訳): 人間と知的エージェントの効果的なコミュニケーションは、複雑な問題を解決するための有望な応用である。
このようなアプローチのひとつとして,マルチモーダルコンテキストを活用した視覚対話がある。
しかし、現実のシナリオは時に人間のミスを伴い、知的エージェントが失敗する可能性がある。
多くの先行研究は人間の対話者からの完璧な回答を想定しているが、我々はエージェントが対話者にとって意図しない間違いを指摘し、現実の状況をよりよく反映する設定に焦点を当てている。
本稿では,これまで使用されていなかったヒューマンミスの収集データを解析し,質問タイプとqaが視覚対話の転換に左右されることを示す。
本研究では,単純なmlpモデルと視覚言語モデルを用いて,ポインティング・ヒューマン・ミステイクタスクにおけるモデル精度に対するこれらの因子の有効性を実証する。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Synthetic Dialogue Dataset Generation using LLM Agents [7.933485970511388]
我々は,会話エージェントとして機能するエージェントと,ユーザとして機能するエージェントを2つ開発する。
ユーザが利用できるNL4Optからの線形問題に関するテキスト記述のセットを使用して、エージェントとユーザは、元の問題記述からすべてのキー情報を取得するまで会話を行う。
我々は,人間の評価指標を再現するためにGPT-4を用いた評価手法を含む,人的および自動評価を行う。
論文 参考訳(メタデータ) (2024-01-30T21:49:30Z) - Decision-Oriented Dialogue for Human-AI Collaboration [62.367222979251444]
そこでは,大規模言語モデル(LM)のようなAIアシスタントが,自然言語を介して複数の人間と協調して複雑な意思決定を行うための,意思決定指向対話と呼ばれるタスクのクラスについて述べる。
日常的な意思決定に直面する3つの領域を定式化し,(1)レビュアーの会議論文への課題の選択,(2)都市における複数段階の旅程の計画,(3)友人集団の旅行計画の交渉を行う。
各タスクに対して、エージェントが到達した最終決定の質に基づいて報酬を受け取る対話環境を構築する。
論文 参考訳(メタデータ) (2023-05-31T17:50:02Z) - Improving Grounded Language Understanding in a Collaborative Environment
by Interacting with Agents Through Help Feedback [42.19685958922537]
我々は、人間とAIのコラボレーションは対話的であり、人間がAIエージェントの作業を監視し、エージェントが理解し活用できるフィードバックを提供するべきだと論じている。
本研究では, IGLUコンペティションによって定義された課題である, マイニングクラフトのような世界における対話型言語理解タスクを用いて, これらの方向を探索する。
論文 参考訳(メタデータ) (2023-04-21T05:37:59Z) - You Truly Understand What I Need: Intellectual and Friendly Dialogue
Agents grounding Knowledge and Persona [30.30372603825815]
外部知識とペルソナを同時に活用する効果的な対話エージェントを提案する。
エージェントは、ポリエンコーダで実装された候補スコアで回答を生成するために使用する適切な知識とペルソナを選択する。
我々はペルソナ知識チャットの実験を行い、グラウンドおよび生成タスクにおける最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-01-06T06:47:21Z) - Improving Personality Consistency in Conversation by Persona Extending [22.124187337032946]
本稿では,Persona Retrieval Model(PRM)とPosterior-Scored Transformer(PS-Transformer)の2つのサブコンポーネントからなる新しい検索・予測パラダイムを提案する。
提案モデルでは,自動測定と人的評価の両面で大幅に改善されている。
論文 参考訳(メタデータ) (2022-08-23T09:00:58Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。