論文の概要: The Role of Privacy Guarantees in Voluntary Donation of Private Health Data for Altruistic Goals
- arxiv url: http://arxiv.org/abs/2407.03451v2
- Date: Wed, 05 Feb 2025 20:16:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:29:12.994028
- Title: The Role of Privacy Guarantees in Voluntary Donation of Private Health Data for Altruistic Goals
- Title(参考訳): アルトゥル的目標のための個人医療データの自発的寄付におけるプライバシ保証の役割
- Authors: Ruizhe Wang, Roberta De Viti, Aarushi Dubey, Elissa M. Redmiles,
- Abstract要約: 本研究は,プライバシ・エンハンスメント・テクノロジー(PET)を通じて提供される4つの一般的な保証の下で,新しい治療法を開発するために,米国在住の人々が医療データを寄付する意思について検討する。
以上の結果から, プライバシ保護の明示的なアウトライン化が, 全体的な認識にほとんど影響を与えないことが判明した。
技術コミュニティはPET保証の信頼を高めるメカニズムとして監査を提案してきたが、そのような監査に対する透明性からの制限効果を観察した。
- 参考スコア(独自算出の注目度): 15.506410659562205
- License:
- Abstract: The voluntary donation of private health information for altruistic purposes, such as supporting research advancements, is a common practice. However, concerns about data misuse and leakage may deter people from donating their information. Privacy Enhancement Technologies (PETs) aim to alleviate these concerns and in turn allow for safe and private data sharing. This study conducts a vignette survey (N=494) with participants recruited from Prolific to examine the willingness of US-based people to donate medical data for developing new treatments under four general guarantees offered across PETs: data expiration, anonymization, purpose restriction, and access control. The study explores two mechanisms for verifying these guarantees: self-auditing and expert auditing, and controls for the impact of confounds including demographics and two types of data collectors: for-profit and non-profit institutions. Our findings reveal that respondents hold such high expectations of privacy from non-profit entities a priori that explicitly outlining privacy protections has little impact on their overall perceptions. In contrast, offering privacy guarantees elevates respondents' expectations of privacy for for-profit entities, bringing them nearly in line with those for non-profit organizations. Further, while the technical community has suggested audits as a mechanism to increase trust in PET guarantees, we observe limited effect from transparency about such audits. We emphasize the risks associated with these findings and underscore the critical need for future interdisciplinary research efforts to bridge the gap between the technical community's and end-users' perceptions regarding the effectiveness of auditing PETs.
- Abstract(参考訳): 研究の進歩を支援するなど、利他的な目的のために民間の健康情報の自発的な寄付は一般的な慣行である。
しかし、データの誤用や漏洩に関する懸念は、情報を寄付することを妨げる可能性がある。
プライバシー強化技術(PET)は、これらの懸念を緩和し、安全でプライベートなデータ共有を可能にすることを目的としている。
本研究は,Pulificから採用した参加者を対象に,PETの4つの一般的な保証のもと,米国在住の人々が医療データを寄付する意思を調査するため,Vignette Survey(N=494)を実施している。
この研究は、これらの保証を検証するための2つのメカニズムを探る: 自己監査と専門家監査、そして、人口統計学を含むコンファウンドの影響に対するコントロール、および2種類のデータ収集者(営利団体と非営利機関)。
以上の結果から, プライバシ保護の明示的なアウトライン化が, 全体的な認識にほとんど影響を与えないことが判明した。
対照的に、プライバシ保証を提供することは、営利団体のプライバシに対する回答者の期待を上昇させ、非営利団体のプライバシとほぼ一致させる。
さらに,PET保証に対する信頼を高めるメカニズムとして,技術コミュニティが監査を提案している一方で,そのような監査に対する透明性から限定的な効果が観察されている。
本研究は,これらの知見に関連するリスクを強調し,PET検査の有効性に関する技術コミュニティとエンドユーザの認識のギャップを埋めるために,今後の学際研究への重要なニーズを浮き彫りにする。
関連論文リスト
- Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - PrePaMS: Privacy-Preserving Participant Management System for Studies with Rewards and Prerequisites [4.2698418800007865]
PrePaMSは、プライバシ保護の方法で必要なチェックと参加報酬をサポートする、参加管理システムである。
当社のシステムでは,潜在的な(非資格化)依存関係への参加を整理し,報酬の安全な支払いを可能にする。
論文 参考訳(メタデータ) (2024-09-16T11:35:17Z) - A Qualitative Analysis Framework for mHealth Privacy Practices [0.0]
本稿では,mHealthアプリにおけるプライバシプラクティスの質的評価のための新しいフレームワークを提案する。
調査では、Androidプラットフォーム上でmHealthをリードする152のアプリを分析した。
以上の結果から,機密情報の誤用や誤用に悩まされていることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T08:57:52Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Preserving The Safety And Confidentiality Of Data Mining Information In Health Care: A literature review [0.0]
PPDM技術は、膨大な量のデータから実行可能な洞察を抽出することを可能にする。
機密情報の開示は患者のプライバシーを侵害する。
本稿では,プライバシ保護機構,データ保護規制,緩和戦略に関する関連研究のレビューを行う。
論文 参考訳(メタデータ) (2023-10-30T05:32:15Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Achieving Transparency Report Privacy in Linear Time [1.9981375888949475]
我々はまず,公開atrにおける透明性と公平性対策の展開によって引き起こされる潜在的なプライバシーリスクを調査し,実証する。
そこで本研究では,標準線形分数プログラミング(LFP)理論に基づく線形時間最適プライバシスキームを提案し,ATRを発表する。
当機構が引き起こすプライバシー・ユーティリティのトレードオフを定量化し、プライバシーの乱用がATRの公正性対策に与える影響を分析します。
論文 参考訳(メタデータ) (2021-03-31T22:05:10Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。