論文の概要: Robust ML Auditing using Prior Knowledge
- arxiv url: http://arxiv.org/abs/2505.04796v1
- Date: Wed, 07 May 2025 20:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.676018
- Title: Robust ML Auditing using Prior Knowledge
- Title(参考訳): 事前知識を用いたロバストML監査
- Authors: Jade Garcia Bourrée, Augustin Godinot, Martijn De Vos, Milos Vujasinovic, Sayan Biswas, Gilles Tredan, Erwan Le Merrer, Anne-Marie Kermarrec,
- Abstract要約: 本稿では,プラットフォームが解決した課題に対する監査者の事前知識を考慮し,操作保護監査に対する新たなアプローチを提案する。
我々はまず、規制当局が監査役を騙すことが容易にできるため、公的な優先事項に依存してはならないことを実証した。
そこで,本研究では,監査官が基礎的真理に関する事前知識を用いて監査操作を防止できる条件を正式に確立する。
- 参考スコア(独自算出の注目度): 3.513282443657269
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid adoption of ML decision-making systems across products and services has led to a set of regulations on how such systems should behave and be built. Among all the technical challenges to enforcing these regulations, one crucial, yet under-explored problem is the risk of manipulation while these systems are being audited for fairness. This manipulation occurs when a platform deliberately alters its answers to a regulator to pass an audit without modifying its answers to other users. In this paper, we introduce a novel approach to manipulation-proof auditing by taking into account the auditor's prior knowledge of the task solved by the platform. We first demonstrate that regulators must not rely on public priors (e.g. a public dataset), as platforms could easily fool the auditor in such cases. We then formally establish the conditions under which an auditor can prevent audit manipulations using prior knowledge about the ground truth. Finally, our experiments with two standard datasets exemplify the maximum level of unfairness a platform can hide before being detected as malicious. Our formalization and generalization of manipulation-proof auditing with a prior opens up new research directions for more robust fairness audits.
- Abstract(参考訳): 製品やサービスにまたがってML意思決定システムが急速に採用され、そのようなシステムがどのように振る舞い、構築されるべきかに関する一連の規制が生まれました。
これらの規制を実施するための技術的な課題の1つは、フェアネスのために監査されている間、操作のリスクである。
この操作は、プラットフォームが故意に回答を変更して、他のユーザに答えを変更することなく監査をパスした場合に発生する。
本稿では,プラットフォームが解決した課題に対する監査者の事前知識を考慮し,操作保護監査のための新しいアプローチを提案する。
私たちはまず、規制当局が公的な事前(例えば、公開データセット)に依存してはならないことを実証しました。
そこで,本研究では,監査官が基礎的真理に関する事前知識を用いて監査操作を防止できる条件を正式に確立する。
最後に、2つの標準データセットによる実験は、プラットフォームが悪意のあるものとして検出される前に隠すことができる最大不公平度を示している。
従来型の操作保護監査の形式化と一般化により,より堅牢な公正監査のための新たな研究の方向性が開ける。
関連論文リスト
- Revisiting Algorithmic Audits of TikTok: Poor Reproducibility and Short-term Validity of Findings [3.682493598086475]
本稿では,TikTokレコメンデータシステムの既存のソックパペット監査の欠点と一般化可能性について検討する。
また,これらの単発検査は短期的にのみ実施されることが多かった。
論文 参考訳(メタデータ) (2025-04-25T07:50:06Z) - From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Auditing Recommender Systems -- Putting the DSA into practice with a
risk-scenario-based approach [5.875955066693127]
欧州連合のデジタルサービス法は、アルゴリズムシステムをより透明性を高め、デューディリジェンス義務に従うようプラットフォームに要求している。
これらの要件は、オンラインプラットフォームによって引き起こされるシステム的リスクを軽減するための重要な立法ステップとなっている。
しかし、DSAは、実行可能な監査プロセスを運用するための具体的なガイドラインを欠いている。
このヴォイドは、監査を利用して彼らのプラクティスを正当化し、責任を無視するプラットフォームである「オーディット・ウォッシング」の普及を促進する可能性がある。
論文 参考訳(メタデータ) (2023-02-09T10:48:37Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。