論文の概要: The Role of Privacy Guarantees in Voluntary Donation of Private Health Data for Altruistic Goals
- arxiv url: http://arxiv.org/abs/2407.03451v2
- Date: Wed, 05 Feb 2025 20:16:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 15:30:40.254151
- Title: The Role of Privacy Guarantees in Voluntary Donation of Private Health Data for Altruistic Goals
- Title(参考訳): アルトゥル的目標のための個人医療データの自発的寄付におけるプライバシ保証の役割
- Authors: Ruizhe Wang, Roberta De Viti, Aarushi Dubey, Elissa M. Redmiles,
- Abstract要約: 本研究は,プライバシ・エンハンスメント・テクノロジー(PET)を通じて提供される4つの一般的な保証の下で,新しい治療法を開発するために,米国在住の人々が医療データを寄付する意思について検討する。
以上の結果から, プライバシ保護の明示的なアウトライン化が, 全体的な認識にほとんど影響を与えないことが判明した。
技術コミュニティはPET保証の信頼を高めるメカニズムとして監査を提案してきたが、そのような監査に対する透明性からの制限効果を観察した。
- 参考スコア(独自算出の注目度): 15.506410659562205
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The voluntary donation of private health information for altruistic purposes, such as supporting research advancements, is a common practice. However, concerns about data misuse and leakage may deter people from donating their information. Privacy Enhancement Technologies (PETs) aim to alleviate these concerns and in turn allow for safe and private data sharing. This study conducts a vignette survey (N=494) with participants recruited from Prolific to examine the willingness of US-based people to donate medical data for developing new treatments under four general guarantees offered across PETs: data expiration, anonymization, purpose restriction, and access control. The study explores two mechanisms for verifying these guarantees: self-auditing and expert auditing, and controls for the impact of confounds including demographics and two types of data collectors: for-profit and non-profit institutions. Our findings reveal that respondents hold such high expectations of privacy from non-profit entities a priori that explicitly outlining privacy protections has little impact on their overall perceptions. In contrast, offering privacy guarantees elevates respondents' expectations of privacy for for-profit entities, bringing them nearly in line with those for non-profit organizations. Further, while the technical community has suggested audits as a mechanism to increase trust in PET guarantees, we observe limited effect from transparency about such audits. We emphasize the risks associated with these findings and underscore the critical need for future interdisciplinary research efforts to bridge the gap between the technical community's and end-users' perceptions regarding the effectiveness of auditing PETs.
- Abstract(参考訳): 研究の進歩を支援するなど、利他的な目的のために民間の健康情報の自発的な寄付は一般的な慣行である。
しかし、データの誤用や漏洩に関する懸念は、情報を寄付することを妨げる可能性がある。
プライバシー強化技術(PET)は、これらの懸念を緩和し、安全でプライベートなデータ共有を可能にすることを目的としている。
本研究は,Pulificから採用した参加者を対象に,PETの4つの一般的な保証のもと,米国在住の人々が医療データを寄付する意思を調査するため,Vignette Survey(N=494)を実施している。
この研究は、これらの保証を検証するための2つのメカニズムを探る: 自己監査と専門家監査、そして、人口統計学を含むコンファウンドの影響に対するコントロール、および2種類のデータ収集者(営利団体と非営利機関)。
以上の結果から, プライバシ保護の明示的なアウトライン化が, 全体的な認識にほとんど影響を与えないことが判明した。
対照的に、プライバシ保証を提供することは、営利団体のプライバシに対する回答者の期待を上昇させ、非営利団体のプライバシとほぼ一致させる。
さらに,PET保証に対する信頼を高めるメカニズムとして,技術コミュニティが監査を提案している一方で,そのような監査に対する透明性から限定的な効果が観察されている。
本研究は,これらの知見に関連するリスクを強調し,PET検査の有効性に関する技術コミュニティとエンドユーザの認識のギャップを埋めるために,今後の学際研究への重要なニーズを浮き彫りにする。
関連論文リスト
- Adopt a PET! An Exploration of PETs, Policy, and Practicalities for Industry in Canada [2.634702601759193]
プライバシー向上技術(PET)は、私たちのデジタル社会に存在するプライバシー問題に対する技術的解決策である。
プライバシー上の課題の増加と、世界中の政府によって提案されている新しい規制の増加にもかかわらず、PETの採用率は低い。
我々は,新たなプライバシ規制が産業の意思決定プロセスに与える影響と,プライバシ規制がPETの採用にどのような影響を及ぼすかを検討する。
論文 参考訳(メタデータ) (2025-03-04T22:08:56Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - PrePaMS: Privacy-Preserving Participant Management System for Studies with Rewards and Prerequisites [4.2698418800007865]
PrePaMSは、プライバシ保護の方法で必要なチェックと参加報酬をサポートする、参加管理システムである。
当社のシステムでは,潜在的な(非資格化)依存関係への参加を整理し,報酬の安全な支払いを可能にする。
論文 参考訳(メタデータ) (2024-09-16T11:35:17Z) - Synthetic Data: Revisiting the Privacy-Utility Trade-off [4.832355454351479]
ある記事は、合成データは従来の匿名化技術よりもプライバシーとユーティリティのトレードオフが良くないと述べている。
記事はまた、PATEGANとPrivBayesが提供した差分プライバシー保証の違反を特定したと主張している。
本稿で記述したプライバシゲームの実装を分析し,高度に専門的で制約のある環境で動作していることを確認した。
論文 参考訳(メタデータ) (2024-07-09T14:48:43Z) - A Qualitative Analysis Framework for mHealth Privacy Practices [0.0]
本稿では,mHealthアプリにおけるプライバシプラクティスの質的評価のための新しいフレームワークを提案する。
調査では、Androidプラットフォーム上でmHealthをリードする152のアプリを分析した。
以上の結果から,機密情報の誤用や誤用に悩まされていることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T08:57:52Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - Preserving The Safety And Confidentiality Of Data Mining Information In Health Care: A literature review [0.0]
PPDM技術は、膨大な量のデータから実行可能な洞察を抽出することを可能にする。
機密情報の開示は患者のプライバシーを侵害する。
本稿では,プライバシ保護機構,データ保護規制,緩和戦略に関する関連研究のレビューを行う。
論文 参考訳(メタデータ) (2023-10-30T05:32:15Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - On the Privacy-Utility Tradeoff in Peer-Review Data Analysis [34.0435377376779]
ピアレビューの改善に関する研究における大きな障害は、ピアレビューデータの利用不可能である。
我々は、特定の会議のピアレビューデータのプライバシー保護のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T21:08:21Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。