論文の概要: Privacy and Safety Experiences and Concerns of U.S. Women Using Generative AI for Seeking Sexual and Reproductive Health Information
- arxiv url: http://arxiv.org/abs/2603.16918v1
- Date: Tue, 10 Mar 2026 20:53:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.254625
- Title: Privacy and Safety Experiences and Concerns of U.S. Women Using Generative AI for Seeking Sexual and Reproductive Health Information
- Title(参考訳): セクシュアル・生殖医療情報検索のためのジェネレーティブAIを用いた米国女性のプライバシ・安全経験と懸念
- Authors: Ina Kaleva, Xiao Zhan, Ruba Abu-Salma, Jose Such,
- Abstract要約: SRH情報を求めるためにGenAIチャットボットを使用した米国在住18人を対象に半構造化インタビューを行った。
参加者は、過剰なデータ収集、政府の監視、プロファイリング、モデルトレーニング、データコモディフィケーションなど、複数のプライバシーリスクを特定した。
我々は、GenAIが支援するSRH情報検索におけるプライバシーと安全性を高めるために、健康特化機能やより強力なモデレーションプラクティスなどのデザインとポリシーレコメンデーションを提供する。
- 参考スコア(独自算出の注目度): 10.983759918089456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid adoption of generative AI (GenAI) chatbots has reshaped access to sexual and reproductive health (SRH) information, particularly following the overturning of Roe v. Wade, as individuals assigned female at birth increasingly turn to online sources. However, existing research remains largely model-centered, paying limited attention to user privacy and safety. We conducted semi-structured interviews with 18 U.S.-based participants from both restrictive and non-restrictive states who had used GenAI chatbots to seek SRH information. Adoption was influenced by perceived utility, usability, credibility, accessibility, and anthropomorphism, and many participants disclosed sensitive personal SRH details. Participants identified multiple privacy risks, including excessive data collection, government surveillance, profiling, model training, and data commodification. While most participants accepted these risks in exchange for perceived utility, abortion-related queries elicited heightened safety concerns. Few participants employed protective strategies beyond minimizing disclosures or deleting data. Based on these findings, we offer design and policy recommendations, such as health-specific features and stronger moderation practices, to enhance privacy and safety in GenAI-supported SRH information seeking.
- Abstract(参考訳): 生成型AI(GenAI)チャットボットの急速な普及は、特にRoe v. Wadeの倒産後、女性の出生時に割り当てられた個人がオンラインソースに移行するにつれて、性的および生殖的健康(SRH)情報へのアクセスを再形成してきた。
しかし、既存の研究は主にモデル中心であり、ユーザーのプライバシーと安全性に限られた注意を払っている。
SRH情報を求めるためにGenAIチャットボットを使用した米国内および非制限州18名を対象に半構造化インタビューを行った。
採用は,有用性,ユーザビリティ,信頼性,アクセシビリティ,人為性に影響され,多くの参加者が機密性の高いSRHの詳細を明らかにした。
参加者は、過剰なデータ収集、政府の監視、プロファイリング、モデルトレーニング、データコモディフィケーションなど、複数のプライバシーリスクを特定した。
ほとんどの参加者はこれらのリスクを受け入れて実用性を認識する一方で、中絶関連クエリーは安全性の懸念を高めた。
開示の最小化やデータの削除以上の保護戦略を採った参加者はほとんどいなかった。
これらの知見に基づき、我々は、GenAIが支援するSRH情報検索におけるプライバシーと安全性を高めるために、健康特化機能やより強力なモデレーションプラクティスなどのデザインとポリシーレコメンデーションを提供する。
関連論文リスト
- Neural Gate: Mitigating Privacy Risks in LVLMs via Neuron-Level Gradient Gating [71.55435880263238]
ニューラルゲート(Neural Gate)は,ニューロンレベルのモデル編集によってプライバシリスクを軽減する新しい手法である。
本手法は,プライバシ関連質問に対する拒否率を高めることにより,モデルのプライバシ保護を改善する。
論文 参考訳(メタデータ) (2026-03-13T03:03:20Z) - SoK: Privacy Risks and Mitigations in Retrieval-Augmented Generation Systems [53.51921540246166]
Retrieval-Augmented Generation (RAG)技術は広く普及している。
RAGには、Large Language Models(LLM)とドメイン固有の知識ベースとの結合が含まれる。
RAGの普及は、データのプライバシに関する懸念を引き起こしている。
論文 参考訳(メタデータ) (2026-01-07T14:50:41Z) - "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe [56.1653658714305]
ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威を理解しました。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識しているが、彼らは最小限の現実的採用を報告した。
論文 参考訳(メタデータ) (2025-10-01T13:51:33Z) - Assessing metadata privacy in neuroimaging [2.176772544213644]
OpenNeuroで公開されている6つのニューロイメージングデータセットのデータについてレビューした。
プライバシーは一般的によく維持されており、重大な脆弱性はまれである。
これらのリスクに対処し、より安全なデータ共有を可能にするための実践的な対策を概説する。
論文 参考訳(メタデータ) (2025-09-18T12:56:03Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Navigating AI to Unpack Youth Privacy Concerns: An In-Depth Exploration and Systematic Review [0.0]
この体系的な文献レビューは、人工知能(AI)システムにおけるプライバシーに関する若いデジタル市民の認識、関心、期待について調査する。
データ抽出は、プライバシの懸念、データ共有のプラクティス、プライバシとユーティリティのバランス、AIの信頼要因、個人データのユーザコントロールを強化する戦略に焦点を当てている。
発見は、個人情報のコントロールの欠如、AIによるデータの誤用の可能性、データ漏洩や不正アクセスの恐れなど、若いユーザーの間で重要なプライバシー上の懸念を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-12-20T22:00:06Z) - Privacy-Preserving Collaborative Genomic Research: A Real-Life Deployment and Vision [2.7968600664591983]
本稿ではLynx.MDと共同で開発されたゲノム研究のためのプライバシ保護フレームワークを提案する。
このフレームワークは、重要なサイバーセキュリティとプライバシの課題に対処し、プライバシ保護によるゲノムデータの共有と分析を可能にする。
Lynx.MD内でのフレームワークの実装には、ゲノムデータをバイナリ形式に符号化し、制御された摂動技術を通じてノイズを適用することが含まれる。
論文 参考訳(メタデータ) (2024-07-12T05:43:13Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Security and Privacy on Generative Data in AIGC: A Survey [17.456578314457612]
我々はAIGCにおける生成データのセキュリティとプライバシについてレビューする。
プライバシ、制御性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。
論文 参考訳(メタデータ) (2023-09-18T02:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。