論文の概要: The Role of Privacy Guarantees in Voluntary Donation of Private Data for Altruistic Goals
- arxiv url: http://arxiv.org/abs/2407.03451v1
- Date: Wed, 3 Jul 2024 18:50:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-08 20:00:48.397647
- Title: The Role of Privacy Guarantees in Voluntary Donation of Private Data for Altruistic Goals
- Title(参考訳): アルトゥル的目標のための個人データの自発的寄付におけるプライバシ保証の役割
- Authors: Ruizhe Wang, Roberta De Viti, Aarushi Dubey, Elissa M. Redmiles,
- Abstract要約: 本研究は,4つのプライバシ保証の下で新たな治療法の開発に医療データを寄付する意思について,ヴィグネット調査を実施している。
以上の結果から,収集データの種類がプライバシの期待に強く影響していることが判明した。
- 参考スコア(独自算出の注目度): 15.506410659562205
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Voluntary donation of private information for altruistic purposes, such as advancing research, is common. However, concerns about data misuse and leakage may deter individuals from donating their information. While prior research has indicated that Privacy Enhancement Technologies (PETs) can alleviate these concerns, the extent to which these techniques influence willingness to donate data remains unclear. This study conducts a vignette survey (N=485) to examine people's willingness to donate medical data for developing new treatments under four privacy guarantees: data expiration, anonymization, use restriction, and access control. The study explores two mechanisms for verifying these guarantees: self-auditing and expert auditing, and evaluates the impact on two types of data recipient entities: for-profit and non-profit institutions. Our findings reveal that the type of entity collecting data strongly influences respondents' privacy expectations, which in part influence their willingness to donate data. Respondents have such high expectations of the privacy provided by non-profit entities that explicitly stating the privacy protections provided makes little adjustment to those expectations. In contrast, statements about privacy bring respondents' expectations of the privacy provided by for-profit entities nearly in-line with non-profit expectations. We highlight the risks of these respective results as well as the need for future research to better align technical community and end-user perceptions about the effectiveness of auditing PETs and to effectively set expectations about the efficacy of PETs in the face of end-user concerns about data breaches.
- Abstract(参考訳): 研究を進めるなど利他的な目的のために個人情報を自発的に寄付することが一般的である。
しかし、データの誤用や漏洩に関する懸念は、個人が情報を寄付することを妨げる可能性がある。
以前の研究では、プライバシ強化技術(PET)がこれらの懸念を緩和できることが示されているが、これらの技術がデータの寄付意欲にどのような影響を及ぼすかは定かではない。
本研究は,データの有効期限,匿名化,使用制限,アクセス制御という4つのプライバシ保証の下で,新たな治療法を開発するための医療データを寄付する意思について,ビグネット調査(N=485)を実施している。
この研究は、これらの保証を検証するための2つのメカニズムを探求し、自己監査と専門家監査を行い、非営利団体と非営利団体の2種類のデータ受信者に与える影響を評価する。
以上の結果から,収集したデータの種類がプライバシの期待に強く影響していることが判明した。
レスポンデントは、非営利団体が提供したプライバシーに対する高い期待を持ち、提供されたプライバシー保護がそれらの期待にほとんど適応しない。
対照的に、プライバシに関する声明は、非営利団体が提供したプライバシに対する回答者の期待を、非営利団体の期待とほぼ一致させます。
これらの結果のリスクに加えて,PETの監査の有効性に対する技術コミュニティとエンドユーザの認識の整合性の向上,およびデータ漏洩に対するエンドユーザの懸念に直面したPETの有効性に対する期待の効果的設定など,今後の研究の必要性も強調する。
関連論文リスト
- Adopt a PET! An Exploration of PETs, Policy, and Practicalities for Industry in Canada [2.634702601759193]
プライバシー向上技術(PET)は、私たちのデジタル社会に存在するプライバシー問題に対する技術的解決策である。
プライバシー上の課題の増加と、世界中の政府によって提案されている新しい規制の増加にもかかわらず、PETの採用率は低い。
我々は,新たなプライバシ規制が産業の意思決定プロセスに与える影響と,プライバシ規制がPETの採用にどのような影響を及ぼすかを検討する。
論文 参考訳(メタデータ) (2025-03-04T22:08:56Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - PrePaMS: Privacy-Preserving Participant Management System for Studies with Rewards and Prerequisites [4.2698418800007865]
PrePaMSは、プライバシ保護の方法で必要なチェックと参加報酬をサポートする、参加管理システムである。
当社のシステムでは,潜在的な(非資格化)依存関係への参加を整理し,報酬の安全な支払いを可能にする。
論文 参考訳(メタデータ) (2024-09-16T11:35:17Z) - Synthetic Data: Revisiting the Privacy-Utility Trade-off [4.832355454351479]
ある記事は、合成データは従来の匿名化技術よりもプライバシーとユーティリティのトレードオフが良くないと述べている。
記事はまた、PATEGANとPrivBayesが提供した差分プライバシー保証の違反を特定したと主張している。
本稿で記述したプライバシゲームの実装を分析し,高度に専門的で制約のある環境で動作していることを確認した。
論文 参考訳(メタデータ) (2024-07-09T14:48:43Z) - A Qualitative Analysis Framework for mHealth Privacy Practices [0.0]
本稿では,mHealthアプリにおけるプライバシプラクティスの質的評価のための新しいフレームワークを提案する。
調査では、Androidプラットフォーム上でmHealthをリードする152のアプリを分析した。
以上の結果から,機密情報の誤用や誤用に悩まされていることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T08:57:52Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - Preserving The Safety And Confidentiality Of Data Mining Information In Health Care: A literature review [0.0]
PPDM技術は、膨大な量のデータから実行可能な洞察を抽出することを可能にする。
機密情報の開示は患者のプライバシーを侵害する。
本稿では,プライバシ保護機構,データ保護規制,緩和戦略に関する関連研究のレビューを行う。
論文 参考訳(メタデータ) (2023-10-30T05:32:15Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - On the Privacy-Utility Tradeoff in Peer-Review Data Analysis [34.0435377376779]
ピアレビューの改善に関する研究における大きな障害は、ピアレビューデータの利用不可能である。
我々は、特定の会議のピアレビューデータのプライバシー保護のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T21:08:21Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。