論文の概要: Under manipulations, are some AI models harder to audit?
- arxiv url: http://arxiv.org/abs/2402.09043v1
- Date: Wed, 14 Feb 2024 09:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 16:20:55.937799
- Title: Under manipulations, are some AI models harder to audit?
- Title(参考訳): 操作では、いくつかのAIモデルは監査が難しいか?
- Authors: Augustin Godinot, Gilles Tredan, Erwan Le Merrer, Camilla Penzo,
Francois Ta\"iani
- Abstract要約: 本研究では,モデルが大きな能力を示す現実的な環境でのロバスト監査の実現可能性について検討する。
ウェブプラットフォームが任意のデータに適合するモデルを使用している場合、監査戦略がランダムサンプリングを上回ります。
次に、Rademacher複雑性を用いて、監査の操作可能性と対象モデルのキャパシティを関連付ける。
- 参考スコア(独自算出の注目度): 2.699900017799093
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Auditors need robust methods to assess the compliance of web platforms with
the law. However, since they hardly ever have access to the algorithm,
implementation, or training data used by a platform, the problem is harder than
a simple metric estimation. Within the recent framework of manipulation-proof
auditing, we study in this paper the feasibility of robust audits in realistic
settings, in which models exhibit large capacities. We first prove a
constraining result: if a web platform uses models that may fit any data, no
audit strategy -- whether active or not -- can outperform random sampling when
estimating properties such as demographic parity. To better understand the
conditions under which state-of-the-art auditing techniques may remain
competitive, we then relate the manipulability of audits to the capacity of the
targeted models, using the Rademacher complexity. We empirically validate these
results on popular models of increasing capacities, thus confirming
experimentally that large-capacity models, which are commonly used in practice,
are particularly hard to audit robustly. These results refine the limits of the
auditing problem, and open up enticing questions on the connection between
model capacity and the ability of platforms to manipulate audit attempts.
- Abstract(参考訳): 監査者は、法律によるWebプラットフォームのコンプライアンスを評価するための堅牢な方法が必要である。
しかしながら、プラットフォームが使用するアルゴリズム、実装、トレーニングデータにアクセスできないため、問題は単純なメトリック推定よりも難しい。
本稿では,近年の操作保護監査の枠組みの中で,モデルが大きな能力を示す現実的な環境でのロバスト監査の実現可能性について検討する。
ウェブプラットフォームが任意のデータに適合するモデルを使用する場合、アクティブかどうかに関わらず、監査戦略は、人口統計学の同等性などの特性を推定した場合、ランダムサンプリングを上回ります。
最先端監査技術が競争力を維持し続ける条件をよりよく理解するために,Rademacher複雑性を用いて,監査の操作可能性と対象モデルのキャパシティを関連付ける。
そこで本研究では,実運用で広く用いられている大容量モデルが,特に堅牢な監査が難しいことを実験的に確認した。
これらの結果は監査問題の限界を洗練させ、モデルキャパシティとプラットフォームによる監査の試みの操作能力の関連性に関する疑問を提起する。
関連論文リスト
- Automatically Adaptive Conformal Risk Control [49.95190019041905]
本稿では,テストサンプルの難易度に適応して,統計的リスクの近似的条件制御を実現する手法を提案する。
我々のフレームワークは、ユーザが提供するコンディショニングイベントに基づく従来のコンディショニングリスク制御を超えて、コンディショニングに適した関数クラスのアルゴリズム的、データ駆動決定を行う。
論文 参考訳(メタデータ) (2024-06-25T08:29:32Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Verifiable evaluations of machine learning models using zkSNARKs [40.538081946945596]
本研究は,zkSNARKによるモデル推論を用いたモデル評価の検証手法を提案する。
結果として得られたデータセット上のモデル出力のゼロ知識計算証明は、検証可能な評価証明にパッケージ化することができる。
実世界のモデルのサンプルでこれを初めてデモし、重要な課題と設計ソリューションを強調します。
論文 参考訳(メタデータ) (2024-02-05T02:21:11Z) - TrustFed: A Reliable Federated Learning Framework with Malicious-Attack
Resistance [8.924352407824566]
フェデレートラーニング(FL)は、個々のデータのプライバシを確保しながら、複数のクライアント間で協調的な学習を可能にする。
本稿では,階層型監査に基づくFL(HiAudit-FL)フレームワークを提案する。
シミュレーションの結果、HiAudit-FLは、システムオーバーヘッドを小さくして、潜在的悪意のあるユーザを効果的に識別し、対処できることが示されている。
論文 参考訳(メタデータ) (2023-12-06T13:56:45Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Federated and Privacy-Preserving Learning of Accounting Data in
Financial Statement Audits [1.4986031916712106]
本稿では,複数のクライアントの関連会計データを監査する上で,DLモデルを訓練するためのフェデレートラーニングフレームワークを提案する。
都市給付の実際の3つのデータセットにおける会計異常を検出するためのアプローチを評価する。
論文 参考訳(メタデータ) (2022-08-26T15:09:18Z) - Soundness of Data-Aware Processes with Arithmetic Conditions [8.914271888521652]
データペトリネット(DPN)は、単純さと表現性のバランスをとる能力によって、人気が高まっている。
データと制御フローの相互作用は、そのようなモデルの正しさ、特に音の良さ、決定的かつ困難さの確認を可能にする。
算術データ条件に富んだDPNの音質を評価するための枠組みを提供する。
論文 参考訳(メタデータ) (2022-03-28T14:46:10Z) - Sample-Efficient Reinforcement Learning via Conservative Model-Based
Actor-Critic [67.00475077281212]
モデルベース強化学習アルゴリズムは、モデルフリーのアルゴリズムよりもサンプル効率が高い。
本稿では,精度の高い学習モデルに強く依存することなく,高いサンプル効率を実現する新しい手法を提案する。
CMBACは,いくつかの課題に対して,サンプル効率の点で最先端のアプローチを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-12-16T15:33:11Z) - How Training Data Impacts Performance in Learning-based Control [67.7875109298865]
本稿では,トレーニングデータの密度と制御性能の関係を考察する。
データセットの品質尺度を定式化し、$rho$-gap と呼ぶ。
フィードバック線形化制御法に$rho$-gapを適用する方法を示す。
論文 参考訳(メタデータ) (2020-05-25T12:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。