論文の概要: Can I Trust This Chatbot? Assessing User Privacy in AI-Healthcare Chatbot Applications
- arxiv url: http://arxiv.org/abs/2509.14581v1
- Date: Thu, 18 Sep 2025 03:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.04886
- Title: Can I Trust This Chatbot? Assessing User Privacy in AI-Healthcare Chatbot Applications
- Title(参考訳): このチャットボットを信頼できますか?AI医療チャットボットアプリケーションにおけるユーザプライバシの評価
- Authors: Ramazan Yener, Guan-Hung Chen, Ece Gumusel, Masooda Bashir,
- Abstract要約: 私たちの研究は、米国内のApp StoreとGoogle Playで利用可能な、広くダウンロードされた12のAIヘルスケアチャットボットアプリのプライバシプラクティスを評価した。
調査対象アプリの半数はサインアップ時にプライバシーポリシーを示しておらず、その時点でデータ共有を無効にするオプションは2つだけだった。
アプリのプライバシポリシの大部分は、データ保護対策に対処できなかった。
- 参考スコア(独自算出の注目度): 2.7026776927145235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Conversational Artificial Intelligence (AI) becomes more integrated into everyday life, AI-powered chatbot mobile applications are increasingly adopted across industries, particularly in the healthcare domain. These chatbots offer accessible and 24/7 support, yet their collection and processing of sensitive health data present critical privacy concerns. While prior research has examined chatbot security, privacy issues specific to AI healthcare chatbots have received limited attention. Our study evaluates the privacy practices of 12 widely downloaded AI healthcare chatbot apps available on the App Store and Google Play in the United States. We conducted a three-step assessment analyzing: (1) privacy settings during sign-up, (2) in-app privacy controls, and (3) the content of privacy policies. The analysis identified significant gaps in user data protection. Our findings reveal that half of the examined apps did not present a privacy policy during sign up, and only two provided an option to disable data sharing at that stage. The majority of apps' privacy policies failed to address data protection measures. Moreover, users had minimal control over their personal data. The study provides key insights for information science researchers, developers, and policymakers to improve privacy protections in AI healthcare chatbot apps.
- Abstract(参考訳): Conversational Artificial Intelligence(AI)が日常の生活に統合されるにつれて、AIを利用したチャットボットモバイルアプリケーションは、特に医療分野の業界でますます採用されている。
これらのチャットボットは、アクセシビリティと24/7のサポートを提供するが、機密性の高い健康データの収集と処理は、重要なプライバシー上の懸念を示している。
以前の調査ではチャットボットのセキュリティについて調べられていたが、AIヘルスケアチャットボットに特有のプライバシー問題は注目されていない。
本研究は、米国内のApp StoreおよびGoogle Playで利用可能な、広くダウンロードされた12のAIヘルスケアチャットボットアプリのプライバシプラクティスを評価する。
本研究では,(1)サインアップ時のプライバシ設定,(2)アプリ内プライバシコントロール,(3)プライバシポリシの内容の3段階評価を行った。
この分析により,ユーザデータ保護における大きなギャップが明らかになった。
調査対象アプリの半数がサインアップ時にプライバシーポリシーを提示せず、その時点でデータ共有を無効にするオプションは2つだけだった。
アプリのプライバシポリシの大部分は、データ保護対策に対処できなかった。
さらに、ユーザは自分の個人情報を最小限にコントロールできた。
この研究は、AIヘルスケアチャットボットアプリのプライバシー保護を改善するために、情報科学研究者、開発者、政策立案者に重要な洞察を提供する。
関連論文リスト
- Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - User Privacy Harms and Risks in Conversational AI: A Proposed Framework [1.8416014644193066]
本研究は、テキストベースのインタラクションにおいて、9つのプライバシ障害と9つのプライバシリスクを特定する。
目標は、開発者、政策立案者、研究者に会話AIの責任と安全な実装のためのツールを提供することだ。
論文 参考訳(メタデータ) (2024-02-15T05:21:58Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Analysis of Longitudinal Changes in Privacy Behavior of Android
Applications [79.71330613821037]
本稿では,プライバシに関して,Androidアプリが時間とともにどのように変化してきたかを検討する。
HTTPSの採用、アプリが他のインストール済みアプリのデバイスをスキャンするかどうか、プライバシに敏感なデータに対するパーミッションの使用、ユニークな識別子の使用について検討する。
アプリがアップデートを受け続けるにつれて、プライバシ関連の振る舞いは時間とともに改善され、アプリによって使用されるサードパーティライブラリが、プライバシに関するより多くの問題に責任を負っていることが分かっています。
論文 参考訳(メタデータ) (2021-12-28T16:21:31Z) - Measuring the Effectiveness of Privacy Policies for Voice Assistant
Applications [12.150750035659383]
音声アプリ開発者が提供するプライバシポリシの有効性を体系的に測定する,最初の大規模データ分析を行う。
我々は、Amazon Alexaのスキル64,720、Google Assistantのアクション2,201を分析した。
われわれの調査では、メインストリームの2つの音声アプリストアでプライバシーポリシーの恐ろしい現実が明らかになった。
論文 参考訳(メタデータ) (2020-07-29T03:17:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。