論文の概要: Statistical Guarantees in the Search for Less Discriminatory Algorithms
- arxiv url: http://arxiv.org/abs/2512.23943v1
- Date: Tue, 30 Dec 2025 02:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.257651
- Title: Statistical Guarantees in the Search for Less Discriminatory Algorithms
- Title(参考訳): 識別アルゴリズムの低次探索における統計的保証
- Authors: Chris Hays, Ben Laufer, Solon Barocas, Manish Raghavan,
- Abstract要約: モデル乗法によるLDA探索を最適停止問題として定式化する。
我々は、開発者がモデルの配布に関してより強い仮定を課すことができるフレームワークを提供する。
- 参考スコア(独自算出の注目度): 4.8750736477712815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent scholarship has argued that firms building data-driven decision systems in high-stakes domains like employment, credit, and housing should search for "less discriminatory algorithms" (LDAs) (Black et al., 2024). That is, for a given decision problem, firms considering deploying a model should make a good-faith effort to find equally performant models with lower disparate impact across social groups. Evidence from the literature on model multiplicity shows that randomness in training pipelines can lead to multiple models with the same performance, but meaningful variations in disparate impact. This suggests that developers can find LDAs simply by randomly retraining models. Firms cannot continue retraining forever, though, which raises the question: What constitutes a good-faith effort? In this paper, we formalize LDA search via model multiplicity as an optimal stopping problem, where a model developer with limited information wants to produce strong evidence that they have sufficiently explored the space of models. Our primary contribution is an adaptive stopping algorithm that yields a high-probability upper bound on the gains achievable from a continued search, allowing the developer to certify (e.g., to a court) that their search was sufficient. We provide a framework under which developers can impose stronger assumptions about the distribution of models, yielding correspondingly stronger bounds. We validate the method on real-world credit, employment and housing datasets.
- Abstract(参考訳): 近年の学問では、雇用、信用、住宅などの高額な領域でデータ駆動型意思決定システムを構築する企業は「非差別的アルゴリズム」(LDAs)を探索すべきであると主張している(Black et al , 2024)。
つまり、ある決定問題に対して、モデルの導入を検討している企業は、社会的グループ間で異なる影響の低い同等のパフォーマンスモデルを見つけるために、善意の努力をすべきである。
モデル乗法に関する文献からの証拠によると、トレーニングパイプラインのランダム性は、同じパフォーマンスを持つ複数のモデルにつながるが、異なる影響の有意義なバリエーションをもたらす可能性がある。
これは、開発者がランダムにモデルを再トレーニングすることで、LDAを見つけることができることを示唆している。
しかし、企業は永久に再トレーニングを続けることはできない。
本稿では,モデル乗法によるLDA探索を最適停止問題として定式化し,限られた情報を持つモデル開発者がモデル空間を十分に探索したことを示す強力な証拠を提示する。
我々の主な貢献は適応的な停止アルゴリズムであり、継続探索によって得られるゲインの高確率上限が得られ、開発者が(例えば裁判所に)検索が十分であることを示すことができる。
我々は、開発者がモデルの分布についてより強い仮定を課すことができ、それに応じて強い境界が得られるフレームワークを提供する。
実世界の信用・雇用・住宅のデータセットを検証した。
関連論文リスト
- Audits Under Resource, Data, and Access Constraints: Scaling Laws For Less Discriminatory Alternatives [41.35437079064223]
計算量,データ,情報,モデルアクセスに制限がある場合でも,請求者が LDA が存在するかどうかを判断できる手順を提案する。
ロスフェアネスフロンティア(PF)のための新しいクローズドフォームアッパーバウンドを提供する。
我々は、主張者がどのようにしてPFを「低リソースの体制」に適合させるかを示し、その後、(大規模な)モデルに適用されるPFを外挿する。
論文 参考訳(メタデータ) (2025-09-06T07:23:25Z) - Boosting LLM-based Relevance Modeling with Distribution-Aware Robust Learning [14.224921308101624]
本稿では,関係モデリングのための新しい分布認識ロバスト学習フレームワーク(DaRL)を提案する。
DaRLはAlipayの保険商品検索のためにオンラインで展開されている。
論文 参考訳(メタデータ) (2024-12-17T03:10:47Z) - Ranked from Within: Ranking Large Multimodal Models Without Labels [73.96543593298426]
ソフトマックス分布から導かれる不確実性スコアは,様々なタスクにまたがるランキングモデルに対して,ロバストな基礎となることを示す。
これにより、ラベルのないデータに対するLMMのランク付けが容易になり、手動のアノテーションを必要とせずに、多様なターゲットドメインのモデルを選択するための実践的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-12-09T13:05:43Z) - The Legal Duty to Search for Less Discriminatory Algorithms [4.625678906362822]
法律はLDAを合理的に捜索する義務を負うべきだと我々は主張する。
モデル乗法とLDAの可用性は、識別アルゴリズムに対する法的な応答に重大な影響を与える。
我々は、この法律は、カバーされた公民権領域における予測モデルの開発と展開を行うエンティティに対して、適切なLDAの探索の義務を負うべきだと論じる。
論文 参考訳(メタデータ) (2024-06-10T21:56:38Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z) - Bellman: A Toolbox for Model-Based Reinforcement Learning in TensorFlow [14.422129911404472]
Bellmanはこのギャップを埋めることを目指しており、モデルベースのRLツールボックスを初めて完全に設計し、テストした。
我々のモジュラーアプローチは、幅広い環境モデルと、最先端アルゴリズムを復元する汎用モデルベースのエージェントクラスを組み合わせることができる。
論文 参考訳(メタデータ) (2021-03-26T11:32:27Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Efficient Model-Based Reinforcement Learning through Optimistic Policy
Search and Planning [93.1435980666675]
最先端の強化学習アルゴリズムと楽観的な探索を容易に組み合わせることができることを示す。
我々の実験は、楽観的な探索が行動に罰則がある場合、学習を著しくスピードアップすることを示した。
論文 参考訳(メタデータ) (2020-06-15T18:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。