論文の概要: Privacy Concerns in Chatbot Interactions: When to Trust and When to
Worry
- arxiv url: http://arxiv.org/abs/2107.03959v1
- Date: Thu, 8 Jul 2021 16:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:48:29.957114
- Title: Privacy Concerns in Chatbot Interactions: When to Trust and When to
Worry
- Title(参考訳): チャットボットのインタラクションにおけるプライバシーの懸念 - 信頼すべき時と心配すべき時
- Authors: Rahime Belen Saglam and Jason R.C. Nurse and Duncan Hodges
- Abstract要約: 英国市民491名を対象に調査を行った。
以上の結果から,ユーザの関心は個人情報の削除とデータの不適切な使用に対する懸念に焦点が当てられていることがわかった。
また、会話エージェントと会話した後、個人がデータのコントロールを失うことを懸念していることも確認した。
- 参考スコア(独自算出の注目度): 3.867363075280544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Through advances in their conversational abilities, chatbots have started to
request and process an increasing variety of sensitive personal information.
The accurate disclosure of sensitive information is essential where it is used
to provide advice and support to users in the healthcare and finance sectors.
In this study, we explore users' concerns regarding factors associated with the
use of sensitive data by chatbot providers. We surveyed a representative sample
of 491 British citizens. Our results show that the user concerns focus on
deleting personal information and concerns about their data's inappropriate
use. We also identified that individuals were concerned about losing control
over their data after a conversation with conversational agents. We found no
effect from a user's gender or education but did find an effect from the user's
age, with those over 45 being more concerned than those under 45. We also
considered the factors that engender trust in a chatbot. Our respondents'
primary focus was on the chatbot's technical elements, with factors such as the
response quality being identified as the most critical factor. We again found
no effect from the user's gender or education level; however, when we
considered some social factors (e.g. avatars or perceived 'friendliness'), we
found those under 45 years old rated these as more important than those over
45. The paper concludes with a discussion of these results within the context
of designing inclusive, digital systems that support a wide range of users.
- Abstract(参考訳): 会話能力の進歩を通じて、チャットボットは様々な機密情報を要求し、処理し始めた。
センシティブな情報の正確な開示は、医療や金融分野のユーザーにアドバイスやサポートを提供するために使用される場合に不可欠である。
本研究では,チャットボットプロバイダによるセンシティブなデータの利用に関連する要因に関するユーザの懸念について検討する。
英国国民491人の代表例を調査した。
以上の結果から,ユーザの関心は個人情報の削除とデータの不適切な使用に対する懸念に焦点が当てられている。
また、会話エージェントと会話した後、個人がデータのコントロールを失うことを懸念していることも確認した。
性別や教育による影響は認められなかったが,45歳以上は45歳未満以上の者に比べて,年齢による影響は認められなかった。
また、チャットボットを信頼する要因も検討した。
回答者の主な焦点はチャットボットの技術要素であり、応答品質などの要因が最も重要な要因であると認識されている。
利用者の性別や教育水準からは影響は認められなかったが,社会的要因(例えば,)について検討した。
アバターや「友情」と認識された45歳未満の人は これを45歳以上より 重要だと評価しました
本稿は、幅広いユーザをサポートする包括的デジタルシステムの設計の文脈におけるこれらの結果に関する議論から締めくくっている。
関連論文リスト
- From Words and Exercises to Wellness: Farsi Chatbot for Self-Attachment
Technique [1.86413150130483]
私たちはFarsiでセルフアタッチメント(SAT)を通じてユーザを誘導する音声対応ロボットを開発した。
6000以上の発話のデータセットを収集し、ユーザー感情を12クラスに分類する新しい感情分析モジュールを開発し、精度は92%以上である。
当社のプラットフォームは,ほとんどのユーザ(75%),72%がインタラクションの後に気分が良くなり,74%がSAT Teacherのパフォーマンスに満足していた。
論文 参考訳(メタデータ) (2023-10-13T19:09:31Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - A Deep Learning Approach to Integrate Human-Level Understanding in a
Chatbot [0.4632366780742501]
人間とは異なり、チャットボットは一度に複数の顧客にサービスを提供し、24/7で提供され、1秒以内で返信できる。
深層学習を用いて感情分析,感情検出,意図分類,名義認識を行い,人文的理解と知性を備えたチャットボットを開発した。
論文 参考訳(メタデータ) (2021-12-31T22:26:41Z) - Automatic Evaluation and Moderation of Open-domain Dialogue Systems [59.305712262126264]
研究者が悩む長きにわたる課題は、効果的な自動評価指標の欠如である。
本稿では, 対話システム技術チャレンジ10(DSTC10)におけるトラック5で得られたデータ, ベースライン, 結果について述べる。
論文 参考訳(メタデータ) (2021-11-03T10:08:05Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - LGBTQ-AI? Exploring Expressions of Gender and Sexual Orientation in
Chatbots [4.511923587827302]
本研究は,テキストベースの会話エージェント5名を対象に,半構造化インタビューを行った。
性別と性同一性に関する6つの共通テーマを同定した。
チャットボットは、人間の体験によって実現される柔軟性の理解が欠如していることから、人間の対話相手とは異なることは明らかである。
論文 参考訳(メタデータ) (2021-06-03T18:47:52Z) - Discovering Chatbot's Self-Disclosure's Impact on User Trust, Affinity,
and Recommendation Effectiveness [39.240553429989674]
我々は3つの自己開示レベルを持つソーシャルボットを設計し、小さな講演を行い、人々に適切なレコメンデーションを提供した。
372人のMTurk参加者が、映画と新型コロナウイルスの2つの話題でボットと会話するために、異なる自己開示レベルを持つ4つのグループのうちの1つにランダム化された。
論文 参考訳(メタデータ) (2021-06-03T08:16:25Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Personalized Chatbot Trustworthiness Ratings [19.537492400265577]
我々は、各問題に対する個別の格付けモジュールに依存するチャットボットのためのパーソナライズされた格付け手法を構想する。
この方法は、特定の信頼問題とは独立しており、集計手順にパラメトリックである。
論文 参考訳(メタデータ) (2020-05-13T22:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。