論文の概要: User Privacy Harms and Risks in Conversational AI: A Proposed Framework
- arxiv url: http://arxiv.org/abs/2402.09716v1
- Date: Thu, 15 Feb 2024 05:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:07:18.923777
- Title: User Privacy Harms and Risks in Conversational AI: A Proposed Framework
- Title(参考訳): 会話型aiにおけるユーザのプライバシー侵害とリスク:提案フレームワーク
- Authors: Ece Gumusel, Kyrie Zhixuan Zhou, Madelyn Rose Sanfilippo
- Abstract要約: 本研究は、テキストベースのインタラクションにおいて、9つのプライバシ障害と9つのプライバシリスクを特定する。
目標は、開発者、政策立案者、研究者に会話AIの責任と安全な実装のためのツールを提供することだ。
- 参考スコア(独自算出の注目度): 1.8416014644193066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a unique framework that applies and extends Solove
(2006)'s taxonomy to address privacy concerns in interactions with text-based
AI chatbots. As chatbot prevalence grows, concerns about user privacy have
heightened. While existing literature highlights design elements compromising
privacy, a comprehensive framework is lacking. Through semi-structured
interviews with 13 participants interacting with two AI chatbots, this study
identifies 9 privacy harms and 9 privacy risks in text-based interactions.
Using a grounded theory approach for interview and chatlog analysis, the
framework examines privacy implications at various interaction stages. The aim
is to offer developers, policymakers, and researchers a tool for responsible
and secure implementation of conversational AI, filling the existing gap in
addressing privacy issues associated with text-based AI chatbots.
- Abstract(参考訳): 本研究では,Solove(2006)の分類を応用し,テキストベースのAIチャットボットとのインタラクションにおけるプライバシー問題に対処する独自のフレームワークを提案する。
チャットボットの普及に伴い、ユーザーのプライバシーに関する懸念が高まっている。
既存の文献ではプライバシーを侵害するデザイン要素が強調されているが、包括的なフレームワークは欠落している。
2つのaiチャットボットと対話する13人の参加者との半構造化インタビューを通じて、テキストベースのインタラクションにおける9つのプライバシー侵害と9つのプライバシリスクを特定した。
インタビューとチャットログ分析のための根拠付き理論アプローチを用いて、このフレームワークはさまざまなインタラクションステージでプライバシへの影響を調べる。
目的は、開発者、政策立案者、研究者に、テキストベースのAIチャットボットに関連するプライバシー問題に対処する既存のギャップを埋め、会話AIの実装を責任とセキュアにするためのツールを提供することだ。
関連論文リスト
- Critical Role of Artificially Intelligent Conversational Chatbot [0.0]
本稿では,ChatGPTの倫理的意味を学術的文脈に含めるシナリオについて考察する。
本稿では、不適切な使用を防止し、責任あるAIインタラクションを促進することを目的としたアーキテクチャソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-31T14:08:07Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Comparing How a Chatbot References User Utterances from Previous
Chatting Sessions: An Investigation of Users' Privacy Concerns and
Perceptions [9.205084145168884]
過去の会話とユーザエンゲージメントの記憶と参照のトレードオフについて検討した。
過去の発話を参照することは、ユーザーのエンゲージメントを高めたり、プライバシーを侵害したりしないことがわかった。
本稿では,設計者が過去のユーザ発話を参照するための適切なフォーマットを選択するのに役立つ,我々の発見からの影響について論じる。
論文 参考訳(メタデータ) (2023-08-09T11:21:51Z) - Interactive Conversational Head Generation [68.76774230274076]
対面会話における1つのインターロケータの振る舞いを合成するための新しい対話ヘッド生成ベンチマークを提案する。
長時間・複数回会話に参加可能なインターロカクタを自動的に合成する機能は不可欠であり、様々なアプリケーションにメリットを提供する。
論文 参考訳(メタデータ) (2023-07-05T08:06:26Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - FedBot: Enhancing Privacy in Chatbots with Federated Learning [0.0]
Federated Learning(FL)は、データをその場所に保持する分散学習方法を通じて、データのプライバシを保護することを目的としている。
POCはDeep Bidirectional Transformerモデルとフェデレーション学習アルゴリズムを組み合わせて、コラボレーティブモデルトレーニング中の顧客のデータプライバシを保護する。
このシステムは、過去のインタラクションから学習する能力を活用することで、時間とともにパフォーマンスと精度を向上させるように設計されている。
論文 参考訳(メタデータ) (2023-04-04T23:13:52Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - The Evolving Path of "the Right to Be Left Alone" - When Privacy Meets
Technology [0.0]
本稿では,プライバシエコシステムの新たなビジョンとして,プライバシの次元,関連するユーザの期待,プライバシ違反,変化要因を導入することを提案する。
プライバシー問題に取り組むための有望なアプローチは, (i) 効果的なプライバシメトリクスの識別, (ii) プライバシに準拠したアプリケーションを設計するためのフォーマルなツールの採用という,2つの方向に移行している,と私たちは信じています。
論文 参考訳(メタデータ) (2021-11-24T11:27:55Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - If I Hear You Correctly: Building and Evaluating Interview Chatbots with
Active Listening Skills [4.395837214164745]
オープンエンドの質問に対して、ユーザの自由テキスト応答を処理できる効果的なインタビューチャットボットを構築するのは難しい。
我々は,公開可能な実用的なAI技術を用いて,効果的なインタビューチャットボットの構築の実現可能性と有効性について検討している。
論文 参考訳(メタデータ) (2020-02-05T16:52:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。