論文の概要: The Effect of Multiple Replies for Natural Language Generation Chatbots
- arxiv url: http://arxiv.org/abs/2210.17209v1
- Date: Mon, 31 Oct 2022 10:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:04:25.266728
- Title: The Effect of Multiple Replies for Natural Language Generation Chatbots
- Title(参考訳): 自然言語生成チャットボットにおける複数応答の効果
- Authors: Eason Chen
- Abstract要約: 異なる条件下でのチャット体験を比較するために, 2 (単応答対5応答) x 2 (匿名アバター対アニメアバター) の繰り返し測定実験を行った。
その結果,NLGモデルから複数の応答を一度に受信すると,単一の応答に比べてチャット体験が向上することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this research, by responding to users' utterances with multiple replies to
create a group chat atmosphere, we alleviate the problem that Natural Language
Generation chatbots might reply with inappropriate content, thus causing a bad
user experience. Because according to our findings, users tend to pay attention
to appropriate replies and ignore inappropriate replies. We conducted a 2
(single reply vs. five replies) x 2 (anonymous avatar vs. anime avatar)
repeated measures experiment to compare the chatting experience in different
conditions. The result shows that users will have a better chatting experience
when receiving multiple replies at once from the NLG model compared to the
single reply. Furthermore, according to the effect size of our result, to
improve the chatting experience for NLG chatbots which is single reply and
anonymous avatar, providing five replies will have more benefits than setting
an anime avatar.
- Abstract(参考訳): 本研究では,グループチャットの雰囲気を作り出すために,ユーザの発話に応答することで,自然言語生成チャットボットが不適切なコンテンツで応答する可能性のある問題を緩和し,ユーザエクスペリエンスを悪化させる。
調査結果によると、ユーザーは適切な返信に注意を払い、不適切な返信を無視する傾向があります。
異なる条件下でのチャット体験を比較するために,2(single reply vs. five replylies)x2(anonymous avatar vs. anime avatar)を繰り返し測定実験を行った。
その結果,NLGモデルから複数の応答を一度に受信すると,単一の応答に比べてチャット体験が向上することがわかった。
さらに,その効果の大きさに応じて,単一応答と匿名アバターであるNLGチャットボットのチャット体験を改善するため,アニメアバターの設定よりも5つの応答が有効となる。
関連論文リスト
- First-Person Fairness in Chatbots [13.787745105316043]
ユーザに対する公平さを意味する「ファースト・パーソナライズ・フェアネス」について検討する。
これには、アイデンティティやバックグラウンドに関わらず、すべてのユーザに高品質なレスポンスを提供することが含まれる。
本稿では,一人称フェアネスの1つの側面を評価するための,スケーラブルなプライバシ保護手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T17:59:47Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Dr. Jekyll and Mr. Hyde: Two Faces of LLMs [23.428082923794708]
本研究では,ChatGPTとGeminiを,忠実なアシスタントと一致しない人格特性を持つ複雑なペルソナに擬人化させる。
ペルソナを用いて、禁止された応答が提供され、不正、違法、有害な情報を得ることができることを示す。
同じ原則で、モデルに信頼に値する個人性を解釈させ、そのような攻撃に対してより堅牢にする2つの防衛法を導入する。
論文 参考訳(メタデータ) (2023-12-06T19:07:38Z) - Leveraging Large Language Models to Power Chatbots for Collecting User
Self-Reported Data [15.808841433843742]
大きな言語モデル(LLM)は、自然言語のプロンプトを受け入れてチャットボットを構築する新しい方法を提供する。
我々は,チャットボットが自然に会話し,データを確実に収集する上で,プロンプトの設計要因について検討する。
論文 参考訳(メタデータ) (2023-01-14T07:29:36Z) - AutoReply: Detecting Nonsense in Dialogue Introspectively with
Discriminative Replies [71.62832112141913]
対話モデルは、不適切なメッセージを示す応答の確率を計算し、内観的に自分のメッセージの誤りを検出することができることを示す。
まず、手作りの返信は外交と同じくらい複雑なアプリケーションにおけるナンセンスを検出するタスクに有効であることを示す。
AutoReplyの生成した応答は手作りの応答よりも優れており、慎重に調整された大規模な教師付きモデルと同等に動作することがわかった。
論文 参考訳(メタデータ) (2022-11-22T22:31:34Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Learning Improvised Chatbots from Adversarial Modifications of Natural
Language Feedback [19.026954124876582]
本稿では,雑音フィードバックを会話中の自然な応答に変換する生成逆モデルを提案する。
ジェネレータの目標は、ユーザの以前の発話に応答する応答にフィードバックを変換し、差別者を騙すことである。
論文 参考訳(メタデータ) (2020-10-14T17:33:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。