論文の概要: User Privacy Harms and Risks in Conversational AI: A Proposed Framework
- arxiv url: http://arxiv.org/abs/2402.09716v1
- Date: Thu, 15 Feb 2024 05:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:07:18.923777
- Title: User Privacy Harms and Risks in Conversational AI: A Proposed Framework
- Title(参考訳): 会話型aiにおけるユーザのプライバシー侵害とリスク:提案フレームワーク
- Authors: Ece Gumusel, Kyrie Zhixuan Zhou, Madelyn Rose Sanfilippo
- Abstract要約: 本研究は、テキストベースのインタラクションにおいて、9つのプライバシ障害と9つのプライバシリスクを特定する。
目標は、開発者、政策立案者、研究者に会話AIの責任と安全な実装のためのツールを提供することだ。
- 参考スコア(独自算出の注目度): 1.8416014644193066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a unique framework that applies and extends Solove
(2006)'s taxonomy to address privacy concerns in interactions with text-based
AI chatbots. As chatbot prevalence grows, concerns about user privacy have
heightened. While existing literature highlights design elements compromising
privacy, a comprehensive framework is lacking. Through semi-structured
interviews with 13 participants interacting with two AI chatbots, this study
identifies 9 privacy harms and 9 privacy risks in text-based interactions.
Using a grounded theory approach for interview and chatlog analysis, the
framework examines privacy implications at various interaction stages. The aim
is to offer developers, policymakers, and researchers a tool for responsible
and secure implementation of conversational AI, filling the existing gap in
addressing privacy issues associated with text-based AI chatbots.
- Abstract(参考訳): 本研究では,Solove(2006)の分類を応用し,テキストベースのAIチャットボットとのインタラクションにおけるプライバシー問題に対処する独自のフレームワークを提案する。
チャットボットの普及に伴い、ユーザーのプライバシーに関する懸念が高まっている。
既存の文献ではプライバシーを侵害するデザイン要素が強調されているが、包括的なフレームワークは欠落している。
2つのaiチャットボットと対話する13人の参加者との半構造化インタビューを通じて、テキストベースのインタラクションにおける9つのプライバシー侵害と9つのプライバシリスクを特定した。
インタビューとチャットログ分析のための根拠付き理論アプローチを用いて、このフレームワークはさまざまなインタラクションステージでプライバシへの影響を調べる。
目的は、開発者、政策立案者、研究者に、テキストベースのAIチャットボットに関連するプライバシー問題に対処する既存のギャップを埋め、会話AIの実装を責任とセキュアにするためのツールを提供することだ。
関連論文リスト
- REALTALK: A 21-Day Real-World Dataset for Long-Term Conversation [51.97224538045096]
本稿では、21日間のメッセージアプリ対話のコーパスであるREALTALKを紹介する。
EI属性とペルソナの整合性を比較し,現実世界の対話による課題を理解する。
その結果,モデルでは対話履歴のみからユーザをシミュレートすることが困難であり,特定のユーザチャットの微調整はペルソナのエミュレーションを改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T20:29:01Z) - Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [42.96087647326612]
我々は、さまざまな社会的関係やタスクシナリオにまたがるAIデリゲートのユーザの嗜好を調査するために、パイロットスタディを実施している。
次に、プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild [40.57348900292574]
人間とチャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解することができる。
我々は、実際のユーザが商用のGPTモデルに対して行った個人情報を詳細に分析する。
論文 参考訳(メタデータ) (2024-07-16T07:05:31Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - Dialogue with Robots: Proposals for Broadening Participation and Research in the SLIVAR Community [57.56212633174706]
自然言語を使って機械と対話する能力は一般的なものになりつつあるが、期待されている。
本稿では,ロボットとの音声対話のこの成長分野の最近の歴史を詳述する。
私たちはコミュニティに3つの提案を提供しています。ひとつは教育、もうひとつはベンチマーク、もうひとつはロボットとの会話に関する言語モデリングです。
論文 参考訳(メタデータ) (2024-04-01T15:03:27Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Comparing How a Chatbot References User Utterances from Previous
Chatting Sessions: An Investigation of Users' Privacy Concerns and
Perceptions [9.205084145168884]
過去の会話とユーザエンゲージメントの記憶と参照のトレードオフについて検討した。
過去の発話を参照することは、ユーザーのエンゲージメントを高めたり、プライバシーを侵害したりしないことがわかった。
本稿では,設計者が過去のユーザ発話を参照するための適切なフォーマットを選択するのに役立つ,我々の発見からの影響について論じる。
論文 参考訳(メタデータ) (2023-08-09T11:21:51Z) - Interactive Conversational Head Generation [68.76774230274076]
対面会話における1つのインターロケータの振る舞いを合成するための新しい対話ヘッド生成ベンチマークを提案する。
長時間・複数回会話に参加可能なインターロカクタを自動的に合成する機能は不可欠であり、様々なアプリケーションにメリットを提供する。
論文 参考訳(メタデータ) (2023-07-05T08:06:26Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。