論文の概要: When Feasibility of Fairness Audits Relies on Willingness to Share Data: Examining User Acceptance of Multi-Party Computation Protocols for Fairness Monitoring
- arxiv url: http://arxiv.org/abs/2602.01846v1
- Date: Mon, 02 Feb 2026 09:17:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.034466
- Title: When Feasibility of Fairness Audits Relies on Willingness to Share Data: Examining User Acceptance of Multi-Party Computation Protocols for Fairness Monitoring
- Title(参考訳): フェアネス監査の可否がデータ共有への意志に影響を及ぼす時:フェアネスモニタリングのためのマルチパーティ計算プロトコルのユーザ受け入れの検討
- Authors: Changyang He, Parnian Jahangirirad, Lin Kyi, Asia J. Biega,
- Abstract要約: ヨーロッパ833人の参加者を対象にオンライン調査を行い、公正度監視のための様々なMPCプロトコル設計のユーザ受け入れについて検討した。
調査の結果,ユーザは直接評価においてリスク関連属性を優先するが,シミュレートされた選択では利益関連属性を優先することが示唆された。
我々は、インフォームドコンセントを奨励し、ユーザの期待に沿う方法で、プライバシ保護プロトコルをデプロイし、通信することの意味を導き出す。
- 参考スコア(独自算出の注目度): 17.850838951015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness monitoring is critical for detecting algorithmic bias, as mandated by the EU AI Act. Since such monitoring requires sensitive user data (e.g., ethnicity), the AI Act permits its processing only with strict privacy measures, such as multi-party computation (MPC), in compliance with the GDPR. However, the effectiveness of such secure monitoring protocols ultimately depends on people's willingness to share their data. Little is known about how different MPC protocol designs shape user acceptance. To address this, we conducted an online survey with 833 participants in Europe, examining user acceptance of various MPC protocol designs for fairness monitoring. Findings suggest that users prioritized risk-related attributes (e.g., privacy protection mechanism) in direct evaluation but benefit-related attributes (e.g., fairness objective) in simulated choices, with acceptance shaped by their fairness and privacy orientations. We derive implications for deploying and communicating privacy-preserving protocols in ways that foster informed consent and align with user expectations.
- Abstract(参考訳): 公正監視は、EU AI Actによって義務付けられているように、アルゴリズムのバイアスを検出するために重要である。
このような監視には機密性の高いユーザデータ(例えば民族性)が必要であるため、AI ActはGDPRに準拠したマルチパーティ計算(MPC)のような厳格なプライバシ対策でのみ、その処理を許可している。
しかし、このようなセキュアな監視プロトコルの有効性は、究極的には、データの共有に対する人々の意思に依存する。
MPCプロトコルの異なる設計がいかにユーザ受け入れを形作るかについてはほとんど分かっていない。
そこで本研究では,欧州833名の参加者を対象に,公正度監視のための様々なMPCプロトコル設計のユーザ受け入れについて調査を行った。
調査の結果,リスク関連属性(例えばプライバシ保護機構)を直接評価する上で優先する傾向が示唆された。
我々は、インフォームドコンセントを奨励し、ユーザの期待に沿う方法で、プライバシ保護プロトコルをデプロイし、通信することの意味を導き出す。
関連論文リスト
- Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - PBa-LLM: Privacy- and Bias-aware NLP using Named-Entity Recognition (NER) [45.870212237420226]
本研究では,Large Language Models(LLMs)のプライバシ保護トレーニングを容易にするために,NER(Named-Entity Recognition)の使用について検討する。
我々は,NER技術を用いて個人識別や地理的位置情報などのテキストデータ中の機密情報を匿名化するフレームワークを提案する。
この研究は2つの言語モデル(BERTとRoBERTa)と6つの匿名化アルゴリズム(Presidio、FLAIR、BERT、および異なるバージョンのGPT)を24,000の候補プロファイルのデータベースに適用した。
論文 参考訳(メタデータ) (2025-06-30T14:42:49Z) - Personhood Credentials: Human-Centered Design Recommendation Balancing Security, Usability, and Trust [2.3020018305241337]
代替アプローチとして、分散識別子(DID)、人格証明、匿名認証、人格認証(PHC)など、関連する概念に基づいて構築された。
重要性の高まりにもかかわらず、利用者のPHCに対する認識や嗜好について限定的な研究がなされている。
具体的な設計勧告を提供するため,米国とEUの23人の参加者を対象に,競争分析と半構造化オンラインユーザインタビューを行った。
論文 参考訳(メタデータ) (2025-02-22T22:33:00Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - VPAS: Publicly Verifiable and Privacy-Preserving Aggregate Statistics on Distributed Datasets [4.181095166452762]
プライバシ保護アグリゲーションプロトコルにおける入力検証と公開検証の課題について検討する。
これらの要件を満たす「VPAS」プロトコルを提案する。
本研究は,従来のzkSNARKを用いた場合に比べて,本プロトコルの妥当性に関するオーバーヘッドが10倍低いことを示す。
論文 参考訳(メタデータ) (2024-03-22T13:50:22Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - An Accurate, Scalable and Verifiable Protocol for Federated
Differentially Private Averaging [0.0]
我々は、参加者に提供されるプライバシー保証と、悪意ある当事者の存在下での計算の正しさに関する課題に取り組む。
最初のコントリビューションはスケーラブルなプロトコルで、参加者はネットワークグラフのエッジに沿って関連するガウスノイズを交換する。
第2のコントリビューションでは,プロトコルの効率性とプライバシ保証を損なうことなく,計算の正確性を証明することができる。
論文 参考訳(メタデータ) (2020-06-12T14:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。