論文の概要: The Role of Privacy Guarantees in Voluntary Donation of Private Data for Altruistic Goals
- arxiv url: http://arxiv.org/abs/2407.03451v1
- Date: Wed, 3 Jul 2024 18:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 20:00:48.397647
- Title: The Role of Privacy Guarantees in Voluntary Donation of Private Data for Altruistic Goals
- Title(参考訳): アルトゥル的目標のための個人データの自発的寄付におけるプライバシ保証の役割
- Authors: Ruizhe Wang, Roberta De Viti, Aarushi Dubey, Elissa M. Redmiles,
- Abstract要約: 本研究は,4つのプライバシ保証の下で新たな治療法の開発に医療データを寄付する意思について,ヴィグネット調査を実施している。
以上の結果から,収集データの種類がプライバシの期待に強く影響していることが判明した。
- 参考スコア(独自算出の注目度): 15.506410659562205
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Voluntary donation of private information for altruistic purposes, such as advancing research, is common. However, concerns about data misuse and leakage may deter individuals from donating their information. While prior research has indicated that Privacy Enhancement Technologies (PETs) can alleviate these concerns, the extent to which these techniques influence willingness to donate data remains unclear. This study conducts a vignette survey (N=485) to examine people's willingness to donate medical data for developing new treatments under four privacy guarantees: data expiration, anonymization, use restriction, and access control. The study explores two mechanisms for verifying these guarantees: self-auditing and expert auditing, and evaluates the impact on two types of data recipient entities: for-profit and non-profit institutions. Our findings reveal that the type of entity collecting data strongly influences respondents' privacy expectations, which in part influence their willingness to donate data. Respondents have such high expectations of the privacy provided by non-profit entities that explicitly stating the privacy protections provided makes little adjustment to those expectations. In contrast, statements about privacy bring respondents' expectations of the privacy provided by for-profit entities nearly in-line with non-profit expectations. We highlight the risks of these respective results as well as the need for future research to better align technical community and end-user perceptions about the effectiveness of auditing PETs and to effectively set expectations about the efficacy of PETs in the face of end-user concerns about data breaches.
- Abstract(参考訳): 研究を進めるなど利他的な目的のために個人情報を自発的に寄付することが一般的である。
しかし、データの誤用や漏洩に関する懸念は、個人が情報を寄付することを妨げる可能性がある。
以前の研究では、プライバシ強化技術(PET)がこれらの懸念を緩和できることが示されているが、これらの技術がデータの寄付意欲にどのような影響を及ぼすかは定かではない。
本研究は,データの有効期限,匿名化,使用制限,アクセス制御という4つのプライバシ保証の下で,新たな治療法を開発するための医療データを寄付する意思について,ビグネット調査(N=485)を実施している。
この研究は、これらの保証を検証するための2つのメカニズムを探求し、自己監査と専門家監査を行い、非営利団体と非営利団体の2種類のデータ受信者に与える影響を評価する。
以上の結果から,収集したデータの種類がプライバシの期待に強く影響していることが判明した。
レスポンデントは、非営利団体が提供したプライバシーに対する高い期待を持ち、提供されたプライバシー保護がそれらの期待にほとんど適応しない。
対照的に、プライバシに関する声明は、非営利団体が提供したプライバシに対する回答者の期待を、非営利団体の期待とほぼ一致させます。
これらの結果のリスクに加えて,PETの監査の有効性に対する技術コミュニティとエンドユーザの認識の整合性の向上,およびデータ漏洩に対するエンドユーザの懸念に直面したPETの有効性に対する期待の効果的設定など,今後の研究の必要性も強調する。
関連論文リスト
- Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - PrePaMS: Privacy-Preserving Participant Management System for Studies with Rewards and Prerequisites [4.2698418800007865]
PrePaMSは、プライバシ保護の方法で必要なチェックと参加報酬をサポートする、参加管理システムである。
当社のシステムでは,潜在的な(非資格化)依存関係への参加を整理し,報酬の安全な支払いを可能にする。
論文 参考訳(メタデータ) (2024-09-16T11:35:17Z) - A Qualitative Analysis Framework for mHealth Privacy Practices [0.0]
本稿では,mHealthアプリにおけるプライバシプラクティスの質的評価のための新しいフレームワークを提案する。
調査では、Androidプラットフォーム上でmHealthをリードする152のアプリを分析した。
以上の結果から,機密情報の誤用や誤用に悩まされていることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T08:57:52Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Preserving The Safety And Confidentiality Of Data Mining Information In Health Care: A literature review [0.0]
PPDM技術は、膨大な量のデータから実行可能な洞察を抽出することを可能にする。
機密情報の開示は患者のプライバシーを侵害する。
本稿では,プライバシ保護機構,データ保護規制,緩和戦略に関する関連研究のレビューを行う。
論文 参考訳(メタデータ) (2023-10-30T05:32:15Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Achieving Transparency Report Privacy in Linear Time [1.9981375888949475]
我々はまず,公開atrにおける透明性と公平性対策の展開によって引き起こされる潜在的なプライバシーリスクを調査し,実証する。
そこで本研究では,標準線形分数プログラミング(LFP)理論に基づく線形時間最適プライバシスキームを提案し,ATRを発表する。
当機構が引き起こすプライバシー・ユーティリティのトレードオフを定量化し、プライバシーの乱用がATRの公正性対策に与える影響を分析します。
論文 参考訳(メタデータ) (2021-03-31T22:05:10Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。