論文の概要: If I Hear You Correctly: Building and Evaluating Interview Chatbots with
Active Listening Skills
- arxiv url: http://arxiv.org/abs/2002.01862v1
- Date: Wed, 5 Feb 2020 16:52:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 20:52:06.146538
- Title: If I Hear You Correctly: Building and Evaluating Interview Chatbots with
Active Listening Skills
- Title(参考訳): 聞き耳が正しければ:アクティブリスニングスキルを備えたインタビューボットの構築と評価
- Authors: Ziang Xiao, Michelle X. Zhou, Wenxi Chen, Huahai Yang, Changyan Chi
- Abstract要約: オープンエンドの質問に対して、ユーザの自由テキスト応答を処理できる効果的なインタビューチャットボットを構築するのは難しい。
我々は,公開可能な実用的なAI技術を用いて,効果的なインタビューチャットボットの構築の実現可能性と有効性について検討している。
- 参考スコア(独自算出の注目度): 4.395837214164745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interview chatbots engage users in a text-based conversation to draw out
their views and opinions. It is, however, challenging to build effective
interview chatbots that can handle user free-text responses to open-ended
questions and deliver engaging user experience. As the first step, we are
investigating the feasibility and effectiveness of using publicly available,
practical AI technologies to build effective interview chatbots. To demonstrate
feasibility, we built a prototype scoped to enable interview chatbots with a
subset of active listening skills - the abilities to comprehend a user's input
and respond properly. To evaluate the effectiveness of our prototype, we
compared the performance of interview chatbots with or without active listening
skills on four common interview topics in a live evaluation with 206 users. Our
work presents practical design implications for building effective interview
chatbots, hybrid chatbot platforms, and empathetic chatbots beyond interview
tasks.
- Abstract(参考訳): インタビューチャットボットは、テキストベースの会話にユーザーを巻き込み、自分の見解や意見を引き出す。
しかし、オープンエンドの質問に対するユーザーのフリーテキスト応答を処理し、魅力的なユーザー体験を提供する効果的なインタビューチャットボットを構築することは困難である。
最初のステップとして、公開可能な実用的なAI技術による効果的なインタビューチャットボットの実現可能性と有効性について検討している。
実現可能性を示すために、私たちは、アクティブリスニングスキルのサブセットを持つインタビューチャットボットを可能にするためにスコープされたプロトタイプを構築しました。
プロトタイプの有効性を評価するため,206名のユーザを対象に,4つの一般的なインタビュートピックに対して,インタビューチャットボットとアクティブリスニングスキルの有無を比較した。
本研究は, 効果的なインタビューチャットボット, ハイブリッドチャットボットプラットフォーム, インタビュータスク以外の共感型チャットボットを構築する上での実践的設計上の意義を示す。
関連論文リスト
- LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Evaluating Chatbots to Promote Users' Trust -- Practices and Open
Problems [11.427175278545517]
本稿では,チャットボットのテスト実践について概説する。
ギャップをユーザ信頼の追求におけるオープンな問題として認識する。
サービスや製品のパフォーマンス、ユーザの満足度、社会に対する長期的意図しない結果に関する信頼の問題を緩和するための道筋を概説する。
論文 参考訳(メタデータ) (2023-09-09T22:40:30Z) - Interactive Conversational Head Generation [68.76774230274076]
対面会話における1つのインターロケータの振る舞いを合成するための新しい対話ヘッド生成ベンチマークを提案する。
長時間・複数回会話に参加可能なインターロカクタを自動的に合成する機能は不可欠であり、様々なアプリケーションにメリットを提供する。
論文 参考訳(メタデータ) (2023-07-05T08:06:26Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - Leveraging Large Language Models to Power Chatbots for Collecting User
Self-Reported Data [15.808841433843742]
大きな言語モデル(LLM)は、自然言語のプロンプトを受け入れてチャットボットを構築する新しい方法を提供する。
我々は,チャットボットが自然に会話し,データを確実に収集する上で,プロンプトの設計要因について検討する。
論文 参考訳(メタデータ) (2023-01-14T07:29:36Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Addressing Inquiries about History: An Efficient and Practical Framework
for Evaluating Open-domain Chatbot Consistency [28.255324166852535]
整合性評価のためのAIH(Addressing Inquiries about History)フレームワークを提案する。
会話の段階では、AIHは対話履歴に関する適切な質問に対処し、チャットボットに歴史的な事実や意見を再宣言する。
矛盾認識段階では、人間の判断または自然言語推論(NLI)モデルを用いて、質問に対する回答が歴史と矛盾しているかどうかを認識することができる。
論文 参考訳(メタデータ) (2021-06-04T03:04:13Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - A Scalable Chatbot Platform Leveraging Online Community Posts: A
Proof-of-Concept Study [4.623392924486831]
本研究では、擬似会話データとして利用して、処理されたオンラインコミュニティ投稿を用いたデータ駆動型チャットボットの構築の可能性を検証する。
さまざまな目的のためのチャットボットは、コミュニティポストの共通構造を利用したパイプラインを通じて、広範囲に構築できる、と我々は主張する。
論文 参考訳(メタデータ) (2020-01-10T01:45:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。