論文の概要: Decoding User Concerns in AI Health Chatbots: An Exploration of Security and Privacy in App Reviews
- arxiv url: http://arxiv.org/abs/2502.00067v1
- Date: Fri, 31 Jan 2025 00:38:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:52:06.020689
- Title: Decoding User Concerns in AI Health Chatbots: An Exploration of Security and Privacy in App Reviews
- Title(参考訳): AIヘルスチャットボットにおけるユーザの懸念をデコードする - アプリレビューにおけるセキュリティとプライバシの探索
- Authors: Muhammad Hassan, Abdullah Ghani, Muhammad Fareed Zaffar, Masooda Bashir,
- Abstract要約: 本研究では,セキュリティプライバシに関する懸念(SPR)を特定する上で,特にBARTとGemini GenAIの自動化手法の有効性を評価する。
以上の結果から,SPR分類におけるGeminiの性能は手動ラベリングに匹敵するものの,どちらの自動手法にも限界があることが示唆された。
- 参考スコア(独自算出の注目度): 1.2437039433843042
- License:
- Abstract: AI powered health chatbot applications are increasingly utilized for personalized healthcare services, yet they pose significant challenges related to user data security and privacy. This study evaluates the effectiveness of automated methods, specifically BART and Gemini GenAI, in identifying security privacy related (SPR) concerns within these applications' user reviews, benchmarking their performance against manual qualitative analysis. Our results indicate that while Gemini's performance in SPR classification is comparable to manual labeling, both automated methods have limitations, including the misclassification of unrelated issues. Qualitative analysis revealed critical user concerns, such as data collection practices, data misuse, and insufficient transparency and consent mechanisms. This research enhances the understanding of the relationship between user trust, privacy, and emerging mobile AI health chatbot technologies, offering actionable insights for improving security and privacy practices in AI driven health chatbots. Although exploratory, our findings highlight the necessity for rigorous audits and transparent communication strategies, providing valuable guidance for app developers and vendors in addressing user security and privacy concerns.
- Abstract(参考訳): AIを活用したヘルスチャットボットアプリケーションは、パーソナライズされたヘルスケアサービスにますます活用されている。
本研究では、これらのアプリケーションのユーザレビューにおけるセキュリティプライバシ関連(SPR)の懸念を識別し、手動定性分析に対してパフォーマンスをベンチマークする際の自動手法、特にBARTとGemini GenAIの有効性を評価する。
その結果,SPR分類におけるジェミニの性能は手動ラベリングに匹敵するものの,非関連問題の誤分類を含む2つの自動手法には限界があることが示唆された。
質的な分析により、データ収集のプラクティス、データ誤用、透明性の欠如と同意メカニズムなど、重要なユーザの懸念が明らかになった。
この研究は、ユーザ信頼、プライバシ、新興モバイルAIヘルスチャットボット技術との関係の理解を深め、AI駆動型ヘルスチャットボットのセキュリティとプライバシプラクティスを改善するための実用的な洞察を提供する。
調査の結果は,厳格な監査と透過的なコミュニケーション戦略の必要性を強調し,ユーザセキュリティとプライバシの懸念に対処する上で,アプリ開発者やベンダに貴重なガイダンスを提供する。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Implications of Artificial Intelligence on Health Data Privacy and Confidentiality [0.0]
医療における人工知能の急速な統合は、医療診断、パーソナライズされた医療、運用効率に革命をもたらしている。
しかし、患者のデータのプライバシ、倫理的考慮、規制遵守に関する重大な問題が発生する。
本稿では、医療におけるAIの二重効果について検討し、その変革の可能性と、敏感な健康情報を保護するための重要な必要性を強調した。
論文 参考訳(メタデータ) (2025-01-03T05:17:23Z) - Navigating AI to Unpack Youth Privacy Concerns: An In-Depth Exploration and Systematic Review [0.0]
この体系的な文献レビューは、人工知能(AI)システムにおけるプライバシーに関する若いデジタル市民の認識、関心、期待について調査する。
データ抽出は、プライバシの懸念、データ共有のプラクティス、プライバシとユーティリティのバランス、AIの信頼要因、個人データのユーザコントロールを強化する戦略に焦点を当てている。
発見は、個人情報のコントロールの欠如、AIによるデータの誤用の可能性、データ漏洩や不正アクセスの恐れなど、若いユーザーの間で重要なプライバシー上の懸念を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-12-20T22:00:06Z) - Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild [40.57348900292574]
人間とチャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解することができる。
我々は、実際のユーザが商用のGPTモデルに対して行った個人情報を詳細に分析する。
論文 参考訳(メタデータ) (2024-07-16T07:05:31Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。