論文の概要: Therapeutic AI and the Hidden Risks of Over-Disclosure: An Embedded AI-Literacy Framework for Mental Health Privacy
- arxiv url: http://arxiv.org/abs/2510.10805v1
- Date: Sun, 12 Oct 2025 20:50:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 20:23:38.945328
- Title: Therapeutic AI and the Hidden Risks of Over-Disclosure: An Embedded AI-Literacy Framework for Mental Health Privacy
- Title(参考訳): 治療AIと過剰開示の隠れたリスク:メンタルヘルスプライバシのための組込みAIリテラシーフレームワーク
- Authors: Soraya S. Anvari, Rina R. Wehbe,
- Abstract要約: 大規模言語モデル(LLM)は、メンタルヘルスの文脈においてますます多くデプロイされている。
LLMには、どの情報が収集され、どのように処理され、どのように保存され、再利用されるかという明確な構造がない。
本稿では,人工知能(AI)のリテラシー介入をメンタルヘルスの会話システムに直接組み込む枠組みを提案する。
- 参考スコア(独自算出の注目度): 3.602377086789099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly deployed in mental health contexts, from structured therapeutic support tools to informal chat-based well-being assistants. While these systems increase accessibility, scalability, and personalization, their integration into mental health care brings privacy and safety challenges that have not been well-examined. Unlike traditional clinical interactions, LLM-mediated therapy often lacks a clear structure for what information is collected, how it is processed, and how it is stored or reused. Users without clinical guidance may over-disclose personal information, which is sometimes irrelevant to their presenting concern, due to misplaced trust, lack of awareness of data risks, or the conversational design of the system. This overexposure raises privacy concerns and also increases the potential for LLM bias, misinterpretation, and long-term data misuse. We propose a framework embedding Artificial Intelligence (AI) literacy interventions directly into mental health conversational systems, and outline a study plan to evaluate their impact on disclosure safety, trust, and user experience.
- Abstract(参考訳): 大規模言語モデル(LLM)は、構造化治療支援ツールからフォーマルなチャットベースの幸福なアシスタントまで、メンタルヘルスの文脈にますます多くデプロイされている。
これらのシステムはアクセシビリティ、スケーラビリティ、パーソナライゼーションを高める一方で、メンタルヘルスへの統合は、十分に検討されていないプライバシーと安全性の課題をもたらす。
従来の臨床と異なり、LSMを介する治療は、収集される情報、どのように処理され、どのように保存または再利用されるか、明確な構造を欠いていることが多い。
臨床指導を受けていないユーザは個人情報を過度に開示することがあるが、これは誤った信頼、データリスクの認識の欠如、システムの会話的設計など、自身の懸念に関係しない場合もある。
この過剰暴露はプライバシーの懸念を高め、LLMバイアス、誤解釈、長期データ誤用の可能性を高める。
本稿では,人工知能(AI)のリテラシー介入をメンタルヘルスの会話システムに直接組み込む枠組みを提案し,情報開示の安全性,信頼,ユーザエクスペリエンスへの影響を評価するための研究計画を概説する。
関連論文リスト
- A Comprehensive Review of Datasets for Clinical Mental Health AI Systems [55.67299586253951]
本稿では,AIを活用した臨床アシスタントの訓練・開発に関連する臨床精神保健データセットの総合的調査を行う。
本調査では, 縦断データの欠如, 文化・言語表現の制限, 一貫性のない収集・注釈基準, 合成データのモダリティの欠如など, 重要なギャップを明らかにした。
論文 参考訳(メタデータ) (2025-08-13T13:42:35Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - SouLLMate: An Application Enhancing Diverse Mental Health Support with Adaptive LLMs, Prompt Engineering, and RAG Techniques [9.920107586781919]
メンタルヘルスの問題は個人の日常生活に大きな影響を及ぼすが、多くの人は利用可能なオンラインリソースでも必要な支援を受けていない。
この研究は、最先端のAI技術を通じて、多様な、アクセス可能な、スティグマのない、パーソナライズされた、リアルタイムのメンタルヘルスサポートを提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-17T22:04:32Z) - SouLLMate: An Adaptive LLM-Driven System for Advanced Mental Health Support and Assessment, Based on a Systematic Application Survey [9.920107586781919]
メンタルヘルスの問題は個人の日常生活に大きな影響を及ぼすが、多くの人は利用可能なオンラインリソースでも必要な支援を受けていない。
この研究は、最先端のAI技術を通じて、アクセス可能で、スティグマフリーで、パーソナライズされ、リアルタイムなメンタルヘルスサポートを提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-06T17:11:29Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。