論文の概要: P2NIA: Privacy-Preserving Non-Iterative Auditing
- arxiv url: http://arxiv.org/abs/2504.00874v1
- Date: Tue, 01 Apr 2025 15:04:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:09.154703
- Title: P2NIA: Privacy-Preserving Non-Iterative Auditing
- Title(参考訳): P2NIA: プライバシー保護非イテレーティブ監査
- Authors: Jade Garcia Bourrée, Hadrien Lautraite, Sébastien Gambs, Gilles Tredan, Erwan Le Merrer, Benoît Rottembourg,
- Abstract要約: AI法の出現により、リスクの高いAIシステムの倫理的コンプライアンスを評価する必要性が高まっている。
従来の監査手法は、プラットフォームのアプリケーションプログラミングインターフェース(API)に依存している。
P2NIAは,監査者とプラットフォーム双方の相互に有益なコラボレーションを提案する新しい監査手法である。
- 参考スコア(独自算出の注目度): 5.619344845505019
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of AI legislation has increased the need to assess the ethical compliance of high-risk AI systems. Traditional auditing methods rely on platforms' application programming interfaces (APIs), where responses to queries are examined through the lens of fairness requirements. However, such approaches put a significant burden on platforms, as they are forced to maintain APIs while ensuring privacy, facing the possibility of data leaks. This lack of proper collaboration between the two parties, in turn, causes a significant challenge to the auditor, who is subject to estimation bias as they are unaware of the data distribution of the platform. To address these two issues, we present P2NIA, a novel auditing scheme that proposes a mutually beneficial collaboration for both the auditor and the platform. Extensive experiments demonstrate P2NIA's effectiveness in addressing both issues. In summary, our work introduces a privacy-preserving and non-iterative audit scheme that enhances fairness assessments using synthetic or local data, avoiding the challenges associated with traditional API-based audits.
- Abstract(参考訳): AI法の出現により、リスクの高いAIシステムの倫理的コンプライアンスを評価する必要性が高まっている。
従来の監査手法はプラットフォームのアプリケーションプログラミングインターフェース(API)に依存しており、クエリに対する応答はフェアネス要件のレンズを通して検査される。
しかしながら、このようなアプローチは、データ漏洩の可能性に直面しながら、プライバシを確保しながらAPIのメンテナンスを強制されるため、プラットフォームに重大な負担をかけました。
この両者の適切なコラボレーションの欠如は、プラットフォームのデータ配布に気づいていないため、見積のバイアスを受ける監査者にとって大きな課題となる。
これら2つの課題に対処するために,監査者とプラットフォーム双方の相互に有益なコラボレーションを提案する新しい監査手法であるP2NIAを提案する。
大規模な実験は、P2NIAが両方の問題に対処する効果を実証している。
要約すると、我々の研究は、従来のAPIベースの監査に関連する問題を回避するために、合成データやローカルデータを用いた公正性評価を強化する、プライバシー保護および非監視監査スキームを導入している。
関連論文リスト
- Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - PII-Bench: Evaluating Query-Aware Privacy Protection Systems [10.52362814808073]
本稿では,プライバシ保護システムを評価するための総合的な評価フレームワークであるPII-Benchを提案する。
PII-Benchは55の細粒度PIIカテゴリにまたがる2,842の試験サンプルから構成されており、単目的記述から複雑な多人数インタラクションまで多様なシナリオが特徴である。
論文 参考訳(メタデータ) (2025-02-25T14:49:08Z) - Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run [7.850976675388593]
情報理論の原則に基づくプライバシー監査のための統一フレームワークを提案する。
プライバシ監査の手法を1回実行することで,単一実行監査が実現可能あるいは実現不可能な条件を特定する。
論文 参考訳(メタデータ) (2025-01-29T16:38:51Z) - From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - An Empirical Study on Compliance with Ranking Transparency in the
Software Documentation of EU Online Platforms [7.461555266672227]
本研究は,6つの主要なプラットフォーム(Amazon, Bing, Booking, Google, Tripadvisor, Yahoo)のコンプライアンスを実証的に評価する。
本稿では,ChatGPTと情報検索技術に基づく自動コンプライアンス評価ツールの導入とテストを行う。
我々の発見は、規制の遵守を強化し、国連持続可能な開発目標10.3に適合するのに役立つだろう。
論文 参考訳(メタデータ) (2023-12-22T16:08:32Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - A Unified Framework of Policy Learning for Contextual Bandit with
Confounding Bias and Missing Observations [108.89353070722497]
本研究では,観測データを用いた最適ポリシの獲得を目的とした,オフラインのコンテキスト的帯域幅問題について検討する。
本稿では、積分方程式系の解として報酬関数を形成するCausal-Adjusted Pessimistic(CAP)ポリシー学習という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-20T15:17:31Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Debiasing Recommendation by Learning Identifiable Latent Confounders [49.16119112336605]
コンバウンディングバイアスは、ユーザの露出とフィードバックの両方に影響を与える未測定変数の存在によって生じる。
既存の手法では,(1) 未測定変数について不確定な仮定を行うか,(2) 潜伏した共同創設者を直接ユーザの露出から推測する。
本稿では、上記の非識別問題の解決にプロキシ変数の集合を利用する新しい方法、すなわち、識別可能なデコノウ(iDCF)を提案する。
論文 参考訳(メタデータ) (2023-02-10T05:10:26Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。