論文の概要: Audits Under Resource, Data, and Access Constraints: Scaling Laws For Less Discriminatory Alternatives
- arxiv url: http://arxiv.org/abs/2509.05627v1
- Date: Sat, 06 Sep 2025 07:23:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.619568
- Title: Audits Under Resource, Data, and Access Constraints: Scaling Laws For Less Discriminatory Alternatives
- Title(参考訳): 資源・データ・アクセス制約に基づく監査:差別的選択肢の少ない法則のスケーリング
- Authors: Sarah H. Cen, Salil Goyal, Zaynah Javed, Ananya Karthik, Percy Liang, Daniel E. Ho,
- Abstract要約: 計算量,データ,情報,モデルアクセスに制限がある場合でも,請求者が LDA が存在するかどうかを判断できる手順を提案する。
ロスフェアネスフロンティア(PF)のための新しいクローズドフォームアッパーバウンドを提供する。
我々は、主張者がどのようにしてPFを「低リソースの体制」に適合させるかを示し、その後、(大規模な)モデルに適用されるPFを外挿する。
- 参考スコア(独自算出の注目度): 41.35437079064223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI audits play a critical role in AI accountability and safety. One branch of the law for which AI audits are particularly salient is anti-discrimination law. Several areas of anti-discrimination law implicate the "less discriminatory alternative" (LDA) requirement, in which a protocol (e.g., model) is defensible if no less discriminatory protocol that achieves comparable performance can be found with a reasonable amount of effort. Notably, the burden of proving an LDA exists typically falls on the claimant (the party alleging discrimination). This creates a significant hurdle in AI cases, as the claimant would seemingly need to train a less discriminatory yet high-performing model, a task requiring resources and expertise beyond most litigants. Moreover, developers often shield information about and access to their model and training data as trade secrets, making it difficult to reproduce a similar model from scratch. In this work, we present a procedure enabling claimants to determine if an LDA exists, even when they have limited compute, data, information, and model access. We focus on the setting in which fairness is given by demographic parity and performance by binary cross-entropy loss. As our main result, we provide a novel closed-form upper bound for the loss-fairness Pareto frontier (PF). We show how the claimant can use it to fit a PF in the "low-resource regime," then extrapolate the PF that applies to the (large) model being contested, all without training a single large model. The expression thus serves as a scaling law for loss-fairness PFs. To use this scaling law, the claimant would require a small subsample of the train/test data. Then, the claimant can fit the context-specific PF by training as few as 7 (small) models. We stress test our main result in simulations, finding that our scaling law holds even when the exact conditions of our theory do not.
- Abstract(参考訳): AI監査は、AI説明責任と安全性において重要な役割を果たす。
AI監査が特に順調な法律の1つの分野は、差別防止法である。
差別防止法のいくつかの分野は、プロトコル(例えば、モデル)が、同等のパフォーマンスを達成するための差別的プロトコルが、合理的な労力で見つけることができなければ、そのプロトコル(例えば、モデル)が保護可能であるという「非差別的代替案」(LDA)要件を暗示している。
特に、LDAの証明の負担は、通常、主張者(差別を主張する当事者)に負う。
これはAIのケースにおいて大きなハードルとなり、主張者は差別的でない高いパフォーマンスのモデルを訓練する必要があるようだ。
さらに、開発者はしばしば、自分のモデルに関する情報とデータへのアクセスを、貿易秘密として保護し、類似したモデルをゼロから再現することが困難になる。
本研究では,計算量,データ,情報,モデルアクセスに制限がある場合でも,請求者が LDA が存在するかどうかを判断できる手順を提案する。
本稿では,2進的クロスエントロピー損失による人口格差と性能による公平性の設定に焦点をあてる。
本研究の主な成果として,ロスフェアネス・パレートフロンティア(PF)に対して,新しいクローズドフォームアッパーバウンドを提供する。
要求者がどのようにしてPFを"低リソースの体制"に適合させるかを示し、その後、(大規模な)モデルに適用されるPFを、すべて単一の大規模モデルをトレーニングすることなく外挿する。
したがって、この表現は損失フェアネスPFのスケーリング法則として機能する。
このスケーリング法則を使用するには、請求人は列車/テストデータの小さなサブサンプルを必要とする。
そして、クレームは、トレーニングによってコンテキスト固有のPFを7つの(小さな)モデルに適合させることができる。
我々は、シミュレーションで主要な結果をテストし、我々のスケーリング法則が、我々の理論の正確な条件が満たされていない場合でも成り立つことを確かめる。
関連論文リスト
- FairPFN: A Tabular Foundation Model for Causal Fairness [39.83807136585407]
因果公正(Causal fairness)は、アルゴリズムの差別を緩和する透明性のある、ループ内の人間的フレームワークを提供する。
本研究では,合成因果フェアネスデータに基づいて事前学習したモデルであるFairPFNを提案し,その予測における保護属性の因果効果の同定と緩和を行う。
論文 参考訳(メタデータ) (2025-06-08T09:15:45Z) - Discriminative Finetuning of Generative Large Language Models without Reward Models and Human Preference Data [73.04828796123581]
Supervised Fine-tuning (SFT) は、事前訓練された大規模言語モデル (LLM) を整列するための重要なステップとなっている。
本稿では,SFTの改良版であるDFT(Driminative Fine-Tuning)を紹介する。
i) 入力された全ての可能な出力のうち、解答の判別可能性を明示的にモデル化することにより、微調整LDMの判別確率フレームワーク、(ii) この判別可能性を最適化するための効率的なアルゴリズム、(iii) DFTの有効性を実証する広範な実験を含む。
論文 参考訳(メタデータ) (2025-02-25T22:38:55Z) - What Constitutes a Less Discriminatory Algorithm? [2.842548870013324]
形式的なLDA定義は、保持データがない場合に予測モデルを評価し、比較しようとすると、根本的な問題に直面します。
当社は、企業と原告の両方が、社会的目標に合う代替モデルを検索できる枠組みを提唱した。
論文 参考訳(メタデータ) (2024-12-24T03:49:48Z) - The Legal Duty to Search for Less Discriminatory Algorithms [4.625678906362822]
法律はLDAを合理的に捜索する義務を負うべきだと我々は主張する。
モデル乗法とLDAの可用性は、識別アルゴリズムに対する法的な応答に重大な影響を与える。
我々は、この法律は、カバーされた公民権領域における予測モデルの開発と展開を行うエンティティに対して、適切なLDAの探索の義務を負うべきだと論じる。
論文 参考訳(メタデータ) (2024-06-10T21:56:38Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Scaling Laws Beyond Backpropagation [64.0476282000118]
因果デコーダのみの変換器を効率的に訓練するための直接フィードバックアライメントの有効性について検討した。
DFAはバックプロパゲーションよりも効率的なスケーリングを提供していないことが分かりました。
論文 参考訳(メタデータ) (2022-10-26T10:09:14Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Learning fair representation with a parametric integral probability
metric [2.544539499281093]
公正表現(LFR)を学習するための新しい逆学習手法を提案する。
本稿では,表現の公平さと表現の最上部に構築された予測モデルの公正さの理論的関係を導出する。
提案するLFRアルゴリズムは計算的に軽量で安定であり,最終予測モデルは他のLFRアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2022-02-07T05:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。