論文の概要: Comparing How a Chatbot References User Utterances from Previous
Chatting Sessions: An Investigation of Users' Privacy Concerns and
Perceptions
- arxiv url: http://arxiv.org/abs/2308.04879v1
- Date: Wed, 9 Aug 2023 11:21:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 14:49:23.286402
- Title: Comparing How a Chatbot References User Utterances from Previous
Chatting Sessions: An Investigation of Users' Privacy Concerns and
Perceptions
- Title(参考訳): チャットボットによるチャットセッションからのユーザ発話の参照方法の比較--ユーザのプライバシの懸念と知覚について
- Authors: Samuel Rhys Cox and Yi-Chieh Lee and Wei Tsang Ooi
- Abstract要約: 過去の会話とユーザエンゲージメントの記憶と参照のトレードオフについて検討した。
過去の発話を参照することは、ユーザーのエンゲージメントを高めたり、プライバシーを侵害したりしないことがわかった。
本稿では,設計者が過去のユーザ発話を参照するための適切なフォーマットを選択するのに役立つ,我々の発見からの影響について論じる。
- 参考スコア(独自算出の注目度): 9.205084145168884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chatbots are capable of remembering and referencing previous conversations,
but does this enhance user engagement or infringe on privacy? To explore this
trade-off, we investigated the format of how a chatbot references previous
conversations with a user and its effects on a user's perceptions and privacy
concerns. In a three-week longitudinal between-subjects study, 169 participants
talked about their dental flossing habits to a chatbot that either, (1-None):
did not explicitly reference previous user utterances, (2-Verbatim): referenced
previous utterances verbatim, or (3-Paraphrase): used paraphrases to reference
previous utterances. Participants perceived Verbatim and Paraphrase chatbots as
more intelligent and engaging. However, the Verbatim chatbot also raised
privacy concerns with participants. To gain insights as to why people prefer
certain conditions or had privacy concerns, we conducted semi-structured
interviews with 15 participants. We discuss implications from our findings that
can help designers choose an appropriate format to reference previous user
utterances and inform in the design of longitudinal dialogue scripting.
- Abstract(参考訳): チャットボットは過去の会話を記憶し、参照することができるが、これはユーザーのエンゲージメントを高めるか、プライバシーを侵害するか?
このトレードオフを探るため,チャットボットがユーザとの以前の会話をどのように参照しているか,ユーザの認識やプライバシの懸念に対する影響について検討した。
対象間の3週間の縦断調査では,169人の被験者が,前者の発話を明示的に参照しないチャットボット(1-None),前者の発話を引用しない(2-Verbatim),前者の発話を口頭で参照する(3-Paraphrase)。
参加者は、動詞とパラフレーズのチャットボットをより賢く、魅力的だと感じた。
しかし、Verbatimチャットボットは参加者のプライバシーも懸念した。
なぜ人々が特定の条件を好むのか、プライバシーに懸念があるのかについての洞察を得るために、私たちは15人の参加者と半構造化されたインタビューを行った。
本研究は,従来のユーザの発話を参照するための適切な形式を設計者が選択し,対話スクリプティングの設計にインフォメーションすることを支援する。
関連論文リスト
- User Privacy Harms and Risks in Conversational AI: A Proposed Framework [1.8416014644193066]
本研究は、テキストベースのインタラクションにおいて、9つのプライバシ障害と9つのプライバシリスクを特定する。
目標は、開発者、政策立案者、研究者に会話AIの責任と安全な実装のためのツールを提供することだ。
論文 参考訳(メタデータ) (2024-02-15T05:21:58Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - MCP: Self-supervised Pre-training for Personalized Chatbots with
Multi-level Contrastive Sampling [18.40883902610959]
個人化されたチャットボットのための対話履歴からより良い表現を抽出するための自己教師型学習フレームワークを提案する。
具体的には、ユーザダイアログ履歴に隠された教師付き信号を利用するために、対照的なサンプリング手法を適用する。
2つの実世界のデータセットに対する実験結果から,提案したモデルMPPは既存手法と比較して大幅に改善された。
論文 参考訳(メタデータ) (2022-10-17T05:16:23Z) - Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks [76.11480953550013]
生成会話ネットワークを用いて会話データを自動的に生成する。
我々は、Topical Chatデータセット上で、知識のない会話に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-22T22:37:14Z) - Making the case for audience design in conversational AI: Rapport
expectations and language ideologies in a task-oriented chatbot [0.0]
本稿では,ユーザの言語イデオロギーとそのラポート期待に対する洞察を,ボットの言語とインタラクションパターンのオーディエンス設計に役立てることができることを論じる。
対話型AIのオーディエンス設計を定義し、ユーザによるインタラクションの分析と、社会言語学的に理解された理論的アプローチが、オーディエンス設計をサポートするためにどのように使用できるかについて議論する。
論文 参考訳(メタデータ) (2022-06-21T19:21:30Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z) - If I Hear You Correctly: Building and Evaluating Interview Chatbots with
Active Listening Skills [4.395837214164745]
オープンエンドの質問に対して、ユーザの自由テキスト応答を処理できる効果的なインタビューチャットボットを構築するのは難しい。
我々は,公開可能な実用的なAI技術を用いて,効果的なインタビューチャットボットの構築の実現可能性と有効性について検討している。
論文 参考訳(メタデータ) (2020-02-05T16:52:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。