論文の概要: Proactive Conversational Agents with Inner Thoughts
- arxiv url: http://arxiv.org/abs/2501.00383v2
- Date: Tue, 18 Feb 2025 08:53:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:01:34.463318
- Title: Proactive Conversational Agents with Inner Thoughts
- Title(参考訳): 内的思考を伴うプロアクティブな会話エージェント
- Authors: Xingyu Bruce Liu, Shitao Fang, Weiyan Shi, Chien-Sheng Wu, Takeo Igarashi, Xiang Anthony Chen,
- Abstract要約: 会話型AIにおける長年の願望の1つは、会話において自律的にイニシアティブ、すなわち積極的に行動できるようにすることである。
以前のNLP研究は、主に前の会話のような文脈から次の話者を予測することに焦点を当てていた。
我々は、人間と同じように、単にターンテイクの手がかりに反応するのではなく、プロアクティブなAIが会話中に自身の内的思考を定式化し、貢献する適切な瞬間を求めることを提案する。
- 参考スコア(独自算出の注目度): 42.34140072445951
- License:
- Abstract: One of the long-standing aspirations in conversational AI is to allow them to autonomously take initiatives in conversations, i.e., being proactive. This is especially challenging for multi-party conversations. Prior NLP research focused mainly on predicting the next speaker from contexts like preceding conversations. In this paper, we demonstrate the limitations of such methods and rethink what it means for AI to be proactive in multi-party, human-AI conversations. We propose that just like humans, rather than merely reacting to turn-taking cues, a proactive AI formulates its own inner thoughts during a conversation, and seeks the right moment to contribute. Through a formative study with 24 participants and inspiration from linguistics and cognitive psychology, we introduce the Inner Thoughts framework. Our framework equips AI with a continuous, covert train of thoughts in parallel to the overt communication process, which enables it to proactively engage by modeling its intrinsic motivation to express these thoughts. We instantiated this framework into two real-time systems: an AI playground web app and a chatbot. Through a technical evaluation and user studies with human participants, our framework significantly surpasses existing baselines on aspects like anthropomorphism, coherence, intelligence, and turn-taking appropriateness.
- Abstract(参考訳): 会話型AIにおける長年の願望の1つは、会話において自律的にイニシアティブ、すなわち積極的に行動できるようにすることである。
これは多人数の会話では特に難しい。
以前のNLP研究は、主に前の会話のような文脈から次の話者を予測することに焦点を当てていた。
本稿では,このような手法の限界を実証し,多人数の人間とAIの会話においてAIが積極的に行動することの意味を再考する。
我々は、人間と同じように、単にターンテイクの手がかりに反応するのではなく、プロアクティブなAIが会話中に自身の内的思考を定式化し、貢献する適切な瞬間を求めることを提案する。
言語学と認知心理学からインスピレーションを得た24人の参加者によるフォーマティブな研究を通じて、内的思考の枠組みを紹介した。
我々のフレームワークは、AIに、オーバート通信プロセスと平行して、継続的な、隠された思考の列を持ち、これらの思考を表現する本質的なモチベーションをモデル化することで、積極的に関与することを可能にする。
私たちはこのフレームワークを,AIプレイングWebアプリとチャットボットという,2つのリアルタイムシステムにインスタンス化しました。
技術評価と人的参加者とのユーザスタディを通じて,我々の枠組みは,人文異同性,コヒーレンス,知性,ターンテイキングの適切性といった面において,既存のベースラインをはるかに超えている。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - Designing and Evaluating Dialogue LLMs for Co-Creative Improvised Theatre [48.19823828240628]
本研究では,Edinburgh Festival Fringeで1ヶ月のライブショーで展開されたLarge Language Models(LLMs)について紹介する。
オンザスポット多人数対話の技術的能力と制約について検討する。
我々のHuman-in-the-loop法は、文脈関連応答を生成する上で、これらのLCMの課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-05-11T23:19:42Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Interactive Conversational Head Generation [68.76774230274076]
対面会話における1つのインターロケータの振る舞いを合成するための新しい対話ヘッド生成ベンチマークを提案する。
長時間・複数回会話に参加可能なインターロカクタを自動的に合成する機能は不可欠であり、様々なアプリケーションにメリットを提供する。
論文 参考訳(メタデータ) (2023-07-05T08:06:26Z) - Commonsense Reasoning for Conversational AI: A Survey of the State of
the Art [0.76146285961466]
論文では、関連するトレーニングデータセットをリストアップし、会話型AIにコモンセンスを含めるための主要なアプローチについて説明する。
本稿では,BlenderBot3とLaMDAの2つの最先端オープンダイアログモデルの限られたコモンセンス能力について予備観測を行った。
論文 参考訳(メタデータ) (2023-02-15T19:55:57Z) - Building Human-like Communicative Intelligence: A Grounded Perspective [1.0152838128195465]
言語学習における驚くべき進歩の後、AIシステムは人間のコミュニケーション能力の重要な側面を反映しない天井に近づいたようだ。
本稿は、ナチビストと象徴的パラダイムに基づく認知にインスパイアされたAIの方向性には、現代AIの進歩を導くために必要なサブストラテジと具体性がないことを示唆する。
本稿では,「地下」言語知能構築のための具体的かつ実装可能なコンポーネントのリストを提案する。
論文 参考訳(メタデータ) (2022-01-02T01:43:24Z) - Intelligent Conversational Android ERICA Applied to Attentive Listening
and Job Interview [41.789773897391605]
我々はインテリジェントな会話型android ericaを開発した。
ERICAには,注意深い聞き取り,就職面接,スピードデートなど,いくつかのソーシャルインタラクションタスクを設定した。
40人の高齢者が会話を分解することなく5~7分間の会話を行ったことが評価されている。
論文 参考訳(メタデータ) (2021-05-02T06:37:23Z) - Crossing the Tepper Line: An Emerging Ontology for Describing the
Dynamic Sociality of Embodied AI [0.9176056742068814]
AIがいかに「社会的に具現化されたAI」として現れるかを示す。
私たちはこれを、人間によって社会的かつエージェント的と認識された場合、対話的なコンテキスト内でaiを「循環的に」実施する状態と定義します。
論文 参考訳(メタデータ) (2021-03-15T00:45:44Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。