論文の概要: Privacy Concerns in Chatbot Interactions: When to Trust and When to
Worry
- arxiv url: http://arxiv.org/abs/2107.03959v1
- Date: Thu, 8 Jul 2021 16:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:48:29.957114
- Title: Privacy Concerns in Chatbot Interactions: When to Trust and When to
Worry
- Title(参考訳): チャットボットのインタラクションにおけるプライバシーの懸念 - 信頼すべき時と心配すべき時
- Authors: Rahime Belen Saglam and Jason R.C. Nurse and Duncan Hodges
- Abstract要約: 英国市民491名を対象に調査を行った。
以上の結果から,ユーザの関心は個人情報の削除とデータの不適切な使用に対する懸念に焦点が当てられていることがわかった。
また、会話エージェントと会話した後、個人がデータのコントロールを失うことを懸念していることも確認した。
- 参考スコア(独自算出の注目度): 3.867363075280544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Through advances in their conversational abilities, chatbots have started to
request and process an increasing variety of sensitive personal information.
The accurate disclosure of sensitive information is essential where it is used
to provide advice and support to users in the healthcare and finance sectors.
In this study, we explore users' concerns regarding factors associated with the
use of sensitive data by chatbot providers. We surveyed a representative sample
of 491 British citizens. Our results show that the user concerns focus on
deleting personal information and concerns about their data's inappropriate
use. We also identified that individuals were concerned about losing control
over their data after a conversation with conversational agents. We found no
effect from a user's gender or education but did find an effect from the user's
age, with those over 45 being more concerned than those under 45. We also
considered the factors that engender trust in a chatbot. Our respondents'
primary focus was on the chatbot's technical elements, with factors such as the
response quality being identified as the most critical factor. We again found
no effect from the user's gender or education level; however, when we
considered some social factors (e.g. avatars or perceived 'friendliness'), we
found those under 45 years old rated these as more important than those over
45. The paper concludes with a discussion of these results within the context
of designing inclusive, digital systems that support a wide range of users.
- Abstract(参考訳): 会話能力の進歩を通じて、チャットボットは様々な機密情報を要求し、処理し始めた。
センシティブな情報の正確な開示は、医療や金融分野のユーザーにアドバイスやサポートを提供するために使用される場合に不可欠である。
本研究では,チャットボットプロバイダによるセンシティブなデータの利用に関連する要因に関するユーザの懸念について検討する。
英国国民491人の代表例を調査した。
以上の結果から,ユーザの関心は個人情報の削除とデータの不適切な使用に対する懸念に焦点が当てられている。
また、会話エージェントと会話した後、個人がデータのコントロールを失うことを懸念していることも確認した。
性別や教育による影響は認められなかったが,45歳以上は45歳未満以上の者に比べて,年齢による影響は認められなかった。
また、チャットボットを信頼する要因も検討した。
回答者の主な焦点はチャットボットの技術要素であり、応答品質などの要因が最も重要な要因であると認識されている。
利用者の性別や教育水準からは影響は認められなかったが,社会的要因(例えば,)について検討した。
アバターや「友情」と認識された45歳未満の人は これを45歳以上より 重要だと評価しました
本稿は、幅広いユーザをサポートする包括的デジタルシステムの設計の文脈におけるこれらの結果に関する議論から締めくくっている。
関連論文リスト
- First-Person Fairness in Chatbots [13.787745105316043]
ユーザに対する公平さを意味する「ファースト・パーソナライズ・フェアネス」について検討する。
これには、アイデンティティやバックグラウンドに関わらず、すべてのユーザに高品質なレスポンスを提供することが含まれる。
本稿では,一人称フェアネスの1つの側面を評価するための,スケーラブルなプライバシ保護手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T17:59:47Z) - How Unique is Whose Web Browser? The role of demographics in browser fingerprinting among US users [50.699390248359265]
ブラウザのフィンガープリントは、クッキーを使わずとも、Web上のユーザを識別し、追跡するために利用できる。
この技術と結果として生じるプライバシーリスクは10年以上にわたって研究されてきた。
我々は、さらなる研究を可能にするファースト・オブ・ザ・キンド・データセットを提供する。
論文 参考訳(メタデータ) (2024-10-09T14:51:58Z) - Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild [40.57348900292574]
人間とチャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解することができる。
我々は、実際のユーザが商用のGPTモデルに対して行った個人情報を詳細に分析する。
論文 参考訳(メタデータ) (2024-07-16T07:05:31Z) - Exploring consumers response to text-based chatbots in e-commerce: The
moderating role of task complexity and chatbot disclosure [0.0]
本研究の目的は、Eコマースにおけるテキストベースのチャットボットに対する消費者の信頼と対応を探ることである。
消費者は、チャットボットの共感と友情の両方に対する認識が、それに対する信頼に肯定的な影響を及ぼす。
テキストベースのチャットボットの開示は、共感と消費者信頼の関係を否定的に抑制する一方で、友人関係と消費者信頼の関係を肯定的に抑制する。
論文 参考訳(メタデータ) (2024-01-20T15:17:50Z) - Social AI Improves Well-Being Among Female Young Adults [0.5439020425819]
ChatGPTのような言語モデルの台頭は、新しいエンターテイメントの形式としてSocial AIを導入した。
本稿では,これらの相互作用がユーザの社会的・精神的健康に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2023-11-12T16:44:43Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Automatic Evaluation and Moderation of Open-domain Dialogue Systems [59.305712262126264]
研究者が悩む長きにわたる課題は、効果的な自動評価指標の欠如である。
本稿では, 対話システム技術チャレンジ10(DSTC10)におけるトラック5で得られたデータ, ベースライン, 結果について述べる。
論文 参考訳(メタデータ) (2021-11-03T10:08:05Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Personalized Chatbot Trustworthiness Ratings [19.537492400265577]
我々は、各問題に対する個別の格付けモジュールに依存するチャットボットのためのパーソナライズされた格付け手法を構想する。
この方法は、特定の信頼問題とは独立しており、集計手順にパラメトリックである。
論文 参考訳(メタデータ) (2020-05-13T22:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。