論文の概要: Mitigating fairwashing using Two-Source Audits
- arxiv url: http://arxiv.org/abs/2305.13883v2
- Date: Tue, 10 Jun 2025 12:30:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:38.257762
- Title: Mitigating fairwashing using Two-Source Audits
- Title(参考訳): 2音源監査によるフェアウォッシングの緩和
- Authors: Jade Garcia Bourrée, Erwan Le Merrer, Gilles Tredan, Benoît Rottembourg,
- Abstract要約: textitTwo-Source Audit セットアップにより,より実用的なアプローチを提案する。
APIを活用しながら、プラットフォームの監査とフェアウォッシングの試みの検出の両方を行うために、第2のデータソースのアジャクションを提唱する。
- 参考スコア(独自算出の注目度): 2.699900017799093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent legislation requires online platforms to provide dedicated APIs to assess the compliance of their decision-making algorithms with the law. Research has nevertheless shown that the auditors of such platforms are prone to manipulation (a practice referred to as \textit{fairwashing}). To address this salient problem, recent work has considered audits under the assumption of partial knowledge of the platform's internal mechanisms. In this paper, we propose a more pragmatic approach with the \textit{Two-Source Audit} setup: while still leveraging the API, we advocate for the adjunction of a second source of data to both perform the audit of a platform and the detection of fairwashing attempts. Our method is based on identifying discrepancies between the two data sources, using data proxies at use in the fairness literature. We formally demonstrate the conditions for success in this fairwashing mitigation task. We then validate our method empirically, demonstrating that Two-Source Audits can achieve a Pareto-optimal balance between the two objectives. We believe this paper sets the stage for reliable audits in manipulation-prone setups, under mild assumptions.
- Abstract(参考訳): 最近の法律では、オンラインプラットフォームは、彼らの意思決定アルゴリズムと法律のコンプライアンスを評価するための専用のAPIを提供する必要がある。
それにもかかわらず、そのようなプラットフォームの監査人は操作しがちである(「textit{fairwashing}」と呼ばれる慣例)。
この健全な問題に対処するために、最近の研究は、プラットフォームの内部メカニズムの部分的知識を前提として監査を検討してきた。
本稿では,より実践的なアプローチとして,APIを活用しながら,プラットフォーム監査とフェアウォッシングの試みの検出の両方を行うための第2のデータソースのアジャクションを提唱する。
本手法は, フェアネス文献におけるデータプロキシを用いた2つのデータソース間の相違点の同定に基づく。
我々は、このフェアウォッシング緩和タスクの成功条件を正式に示す。
次に,本手法を実証的に検証し,両目標間のパレート最適バランスを達成できることを実証した。
本論文は,軽度の前提条件の下で,操作の容易なセットアップにおける信頼性のある監査の段階を定めていると信じている。
関連論文リスト
- CLAIM: An Intent-Driven Multi-Agent Framework for Analyzing Manipulation in Courtroom Dialogues [0.0]
NLPの進歩にもかかわらず、法域内での操作の検出と解析におけるその応用は、明らかにされていない。
我々の研究は、操作検出にラベル付けされた1,063の注釈付き法廷会話データセットであるLegalConを導入することで、このギャップに対処する。
CLAIMは2段階のインテント駆動型マルチエージェントフレームワークであり、コンテキスト認識と情報意思決定を可能とし、操作解析の強化を目的としている。
論文 参考訳(メタデータ) (2025-06-04T16:22:59Z) - Robust ML Auditing using Prior Knowledge [3.513282443657269]
監査操作は、プラットフォームが故意に回答を変更して、他のユーザーに答えを変更することなく監査をパスした場合に発生する。
本稿では,プラットフォームが解決した課題に対する監査者の事前知識を考慮し,操作保護監査に対する新たなアプローチを提案する。
論文 参考訳(メタデータ) (2025-05-07T20:46:48Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - P2NIA: Privacy-Preserving Non-Iterative Auditing [5.619344845505019]
AI法の出現により、リスクの高いAIシステムの倫理的コンプライアンスを評価する必要性が高まっている。
従来の監査手法は、プラットフォームのアプリケーションプログラミングインターフェース(API)に依存している。
P2NIAは,監査者とプラットフォーム双方の相互に有益なコラボレーションを提案する新しい監査手法である。
論文 参考訳(メタデータ) (2025-04-01T15:04:58Z) - Fine Grained Insider Risk Detection [0.0]
本稿では,支援者間での業務正当化から逸脱を検出する手法を提案する。
我々は,3千人以上の支援エージェントによる何百万もの行動の監査を支援するために,本手法を適用した。
論文 参考訳(メタデータ) (2024-11-04T22:07:38Z) - FIRE: Fact-checking with Iterative Retrieval and Verification [63.67320352038525]
FIREはエビデンス検索とクレーム検証を反復的に統合する新しいフレームワークである。
大きな言語モデル(LLM)のコストを平均7.6倍、検索コストを16.5倍削減しながら、パフォーマンスが若干向上している。
これらの結果から,FIREは大規模ファクトチェック業務における適用を約束していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-17T06:44:18Z) - DeepREST: Automated Test Case Generation for REST APIs Exploiting Deep Reinforcement Learning [5.756036843502232]
本稿では、REST APIを自動テストするための新しいブラックボックスアプローチであるDeepRESTを紹介します。
深い強化学習を活用して、暗黙のAPI制約、すなわちAPIドキュメントから隠された制約を明らかにする。
実験により,提案手法は高いテストカバレッジと故障検出を実現する上で極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-08-16T08:03:55Z) - Auditing Differential Privacy Guarantees Using Density Estimation [3.830092569453011]
DP機構の差分プライバシー保証を正確に評価するための新しい手法を提案する。
特に、我々のソリューションは、機械学習(ML)モデルのDP保証の監査に適用できる。
論文 参考訳(メタデータ) (2024-06-07T10:52:15Z) - Pragmatic auditing: a pilot-driven approach for auditing Machine Learning systems [5.26895401335509]
本稿では,欧州委員会が公表したAI-HLEGガイドラインを拡張する手順について述べる。
監査手順は、ドキュメント、説明責任、品質保証を明確に重視するMLライフサイクルモデルに基づいています。
2つの異なる組織による実世界のユースケースで実施される2つのパイロットについて説明する。
論文 参考訳(メタデータ) (2024-05-21T20:40:37Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z) - Under manipulations, are some AI models harder to audit? [2.699900017799093]
本研究では,モデルが大きな能力を示す現実的な環境でのロバスト監査の実現可能性について検討する。
ウェブプラットフォームが任意のデータに適合するモデルを使用している場合、監査戦略がランダムサンプリングを上回ります。
次に、Rademacher複雑性を用いて、監査の操作可能性と対象モデルのキャパシティを関連付ける。
論文 参考訳(メタデータ) (2024-02-14T09:38:09Z) - On the Detection of Reviewer-Author Collusion Rings From Paper Bidding [71.43634536456844]
衝突リングは、コンピュータサイエンスカンファレンスのピアレビューシステムに大きな脅威をもたらす。
この問題を解決する1つのアプローチは、操作された入札から衝突するレビュアーを検出することである。
衝突環の検出が可能であるという研究はまだ確立されていない。
論文 参考訳(メタデータ) (2024-02-12T18:12:09Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Exploring API Behaviours Through Generated Examples [0.768721532845575]
本稿では,APIの動作に関する関連事例を自動的に生成するアプローチを提案する。
我々の手法は、探索中のシステムを理解するのに役立つ、小さくて関連する例を生成することができる。
論文 参考訳(メタデータ) (2023-08-29T11:05:52Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - REaaS: Enabling Adversarially Robust Downstream Classifiers via Robust
Encoder as a Service [67.0982378001551]
サービスプロバイダがエンコーダを事前トレーニングして、クラウドサービスAPIとしてデプロイする方法を示します。
クライアントはクラウドサービスAPIに問い合わせて、トレーニング/テスト入力のフィーチャーベクタを取得する。
私たちは、クライアントが下流の分類器の堅牢性を証明できるように、クラウドサービスが2つのAPIを提供する必要があることを示しています。
論文 参考訳(メタデータ) (2023-01-07T17:40:11Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Algorithmic audits of algorithms, and the law [3.9103337761169943]
対象アルゴリズムのユーザ側とのインタラクションによって実施される外部監査に注目した。
これらの監査が行われる法的な枠組みは、主にそれらを開発する研究者にとって曖昧である。
本稿では,アルゴリズム監査の進展する分野を構築するために,現在実施されている監査と法との関係を概説する。
論文 参考訳(メタデータ) (2022-02-15T14:20:53Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。