論文の概要: On the relevance of APIs facing fairwashed audits
- arxiv url: http://arxiv.org/abs/2305.13883v1
- Date: Tue, 23 May 2023 10:06:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 17:06:11.843780
- Title: On the relevance of APIs facing fairwashed audits
- Title(参考訳): 公正な監査に直面するAPIの関連性について
- Authors: Jade Garcia Bourr\'ee, Erwan Le Merrer, Gilles Tredan and Beno\^it
Rottembourg
- Abstract要約: 最近の法律では、規制当局が法律へのコンプライアンスを評価するためのAPIの提供をAIプラットフォームに要求している。
調査によると、プラットフォームはフェアウォッシングによってAPIの回答を操作できる。
本稿では,プラットフォームスクレイピングとAPIの併用によるメリットについて検討する。
- 参考スコア(独自算出の注目度): 3.479254848034425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent legislation required AI platforms to provide APIs for regulators to
assess their compliance with the law. Research has nevertheless shown that
platforms can manipulate their API answers through fairwashing. Facing this
threat for reliable auditing, this paper studies the benefits of the joint use
of platform scraping and of APIs. In this setup, we elaborate on the use of
scraping to detect manipulated answers: since fairwashing only manipulates API
answers, exploiting scraps may reveal a manipulation. To abstract the wide
range of specific API-scrap situations, we introduce a notion of proxy that
captures the consistency an auditor might expect between both data sources. If
the regulator has a good proxy of the consistency, then she can easily detect
manipulation and even bypass the API to conduct her audit. On the other hand,
without a good proxy, relying on the API is necessary, and the auditor cannot
defend against fairwashing.
We then simulate practical scenarios in which the auditor may mostly rely on
the API to conveniently conduct the audit task, while maintaining her chances
to detect a potential manipulation. To highlight the tension between the audit
task and the API fairwashing detection task, we identify Pareto-optimal
strategies in a practical audit scenario.
We believe this research sets the stage for reliable audits in practical and
manipulation-prone setups.
- Abstract(参考訳): 最近の法律では、規制当局が法律へのコンプライアンスを評価するためのAPIの提供をAIプラットフォームに要求している。
それにもかかわらず、プラットフォームはfairwashingによってapiの答えを操作できることが研究によって示されている。
本稿では,信頼度の高い監査の脅威に直面し,プラットフォームスクレイピングとAPIの併用によるメリットについて検討する。
このセットアップでは、操作された回答を検出するスクレイピングの使用について詳しく説明する。
特定のapi-scrap状況の広い範囲を抽象化するために、監査者が両方のデータソース間で期待する一貫性をキャプチャするプロキシの概念を導入する。
もしレギュレータが一貫性の優れたプロキシを持っているなら、容易に操作を検出し、apiをバイパスして監査を行うことができます。
一方、適切なプロキシがなければ、APIに依存する必要があり、監査役はフェアウォッシングから守ることはできない。
次に、監査人が監査タスクを便利に行うためにAPIに大きく依存し、潜在的な操作を検出する機会を維持しながら、実際のシナリオをシミュレートする。
監査タスクとapiフェアウォッシング検出タスクの緊張関係を強調するため,実際の監査シナリオにおいて,パレート最適戦略を特定する。
この研究は、実用的で操作しやすいセットアップにおける信頼性の高い監査の舞台となると信じています。
関連論文リスト
- Fine Grained Insider Risk Detection [0.0]
本稿では,支援者間での業務正当化から逸脱を検出する手法を提案する。
我々は,3千人以上の支援エージェントによる何百万もの行動の監査を支援するために,本手法を適用した。
論文 参考訳(メタデータ) (2024-11-04T22:07:38Z) - FIRE: Fact-checking with Iterative Retrieval and Verification [63.67320352038525]
FIREはエビデンス検索とクレーム検証を反復的に統合する新しいフレームワークである。
大きな言語モデル(LLM)のコストを平均7.6倍、検索コストを16.5倍削減しながら、パフォーマンスが若干向上している。
これらの結果から,FIREは大規模ファクトチェック業務における適用を約束していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-17T06:44:18Z) - DeepREST: Automated Test Case Generation for REST APIs Exploiting Deep Reinforcement Learning [5.756036843502232]
本稿では、REST APIを自動テストするための新しいブラックボックスアプローチであるDeepRESTを紹介します。
深い強化学習を活用して、暗黙のAPI制約、すなわちAPIドキュメントから隠された制約を明らかにする。
実験により,提案手法は高いテストカバレッジと故障検出を実現する上で極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-08-16T08:03:55Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Under manipulations, are some AI models harder to audit? [2.699900017799093]
本研究では,モデルが大きな能力を示す現実的な環境でのロバスト監査の実現可能性について検討する。
ウェブプラットフォームが任意のデータに適合するモデルを使用している場合、監査戦略がランダムサンプリングを上回ります。
次に、Rademacher複雑性を用いて、監査の操作可能性と対象モデルのキャパシティを関連付ける。
論文 参考訳(メタデータ) (2024-02-14T09:38:09Z) - On the Detection of Reviewer-Author Collusion Rings From Paper Bidding [71.43634536456844]
衝突リングは、コンピュータサイエンスカンファレンスのピアレビューシステムに大きな脅威をもたらす。
この問題を解決する1つのアプローチは、操作された入札から衝突するレビュアーを検出することである。
衝突環の検出が可能であるという研究はまだ確立されていない。
論文 参考訳(メタデータ) (2024-02-12T18:12:09Z) - Exploring API Behaviours Through Generated Examples [0.768721532845575]
本稿では,APIの動作に関する関連事例を自動的に生成するアプローチを提案する。
我々の手法は、探索中のシステムを理解するのに役立つ、小さくて関連する例を生成することができる。
論文 参考訳(メタデータ) (2023-08-29T11:05:52Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - REaaS: Enabling Adversarially Robust Downstream Classifiers via Robust
Encoder as a Service [67.0982378001551]
サービスプロバイダがエンコーダを事前トレーニングして、クラウドサービスAPIとしてデプロイする方法を示します。
クライアントはクラウドサービスAPIに問い合わせて、トレーニング/テスト入力のフィーチャーベクタを取得する。
私たちは、クライアントが下流の分類器の堅牢性を証明できるように、クラウドサービスが2つのAPIを提供する必要があることを示しています。
論文 参考訳(メタデータ) (2023-01-07T17:40:11Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Algorithmic audits of algorithms, and the law [3.9103337761169943]
対象アルゴリズムのユーザ側とのインタラクションによって実施される外部監査に注目した。
これらの監査が行われる法的な枠組みは、主にそれらを開発する研究者にとって曖昧である。
本稿では,アルゴリズム監査の進展する分野を構築するために,現在実施されている監査と法との関係を概説する。
論文 参考訳(メタデータ) (2022-02-15T14:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。