論文の概要: The Fair Game: Auditing & Debiasing AI Algorithms Over Time
- arxiv url: http://arxiv.org/abs/2508.06443v1
- Date: Fri, 08 Aug 2025 16:36:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.305495
- Title: The Fair Game: Auditing & Debiasing AI Algorithms Over Time
- Title(参考訳): フェアゲーム:AIアルゴリズムの監査と悪用
- Authors: Debabrota Basu, Udvas Das,
- Abstract要約: Fair Game"は、AuditorとDebiasingアルゴリズムをMLアルゴリズムのループにまとめる。
フェアゲーム(Fair Game)は、フェアネスの目標を時間とともに適応できるユニークなフレームワークを提供する。
これにより、フレキシブルでアダプティブなオーバータイムのフレームワークを開発し、Fair MLシステムの構築とデプロイ後の開発を可能にします。
- 参考スコア(独自算出の注目度): 8.784438985280094
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: An emerging field of AI, namely Fair Machine Learning (ML), aims to quantify different types of bias (also known as unfairness) exhibited in the predictions of ML algorithms, and to design new algorithms to mitigate them. Often, the definitions of bias used in the literature are observational, i.e. they use the input and output of a pre-trained algorithm to quantify a bias under concern. In reality,these definitions are often conflicting in nature and can only be deployed if either the ground truth is known or only in retrospect after deploying the algorithm. Thus,there is a gap between what we want Fair ML to achieve and what it does in a dynamic social environment. Hence, we propose an alternative dynamic mechanism,"Fair Game",to assure fairness in the predictions of an ML algorithm and to adapt its predictions as the society interacts with the algorithm over time. "Fair Game" puts together an Auditor and a Debiasing algorithm in a loop around an ML algorithm. The "Fair Game" puts these two components in a loop by leveraging Reinforcement Learning (RL). RL algorithms interact with an environment to take decisions, which yields new observations (also known as data/feedback) from the environment and in turn, adapts future decisions. RL is already used in algorithms with pre-fixed long-term fairness goals. "Fair Game" provides a unique framework where the fairness goals can be adapted over time by only modifying the auditor and the different biases it quantifies. Thus,"Fair Game" aims to simulate the evolution of ethical and legal frameworks in the society by creating an auditor which sends feedback to a debiasing algorithm deployed around an ML system. This allows us to develop a flexible and adaptive-over-time framework to build Fair ML systems pre- and post-deployment.
- Abstract(参考訳): 新たなAI分野であるFair Machine Learning(ML)は、MLアルゴリズムの予測に現れるさまざまな種類のバイアス(不公平性とも呼ばれる)を定量化し、それらを緩和するための新しいアルゴリズムを設計することを目的としている。
文献で使われるバイアスの定義は観察的であり、例えば、事前学習されたアルゴリズムの入力と出力を使って、懸念の下でバイアスを定量化する。
現実には、これらの定義は自然界において矛盾することが多く、根底的な真理が分かっていれば、あるいはアルゴリズムをデプロイした後だけにしか展開できない。
したがって、Fair MLが達成したいものと、それがダイナミックな社会的環境で何をするかの間には、ギャップがあります。
そこで我々は,MLアルゴリズムの予測における公正性を保証し,社会が時間とともにアルゴリズムと相互作用するにつれて,その予測に適応する「フェアゲーム」を提案する。
Fair Game"は、AuditorとDebiasingアルゴリズムをMLアルゴリズムのループにまとめる。
ファイアゲーム(Fair Game)は、強化学習(RL)を活用することで、これらの2つのコンポーネントをループに配置する。
RLアルゴリズムは環境と相互作用して意思決定を行い、環境から新しい観察結果(データ/フィードバックとも呼ばれる)が得られ、その結果、将来の決定に適応する。
RLは、事前に固定された長期フェアネスゴールを持つアルゴリズムで既に使われている。
フェアゲーム(Fair Game)は、監査役とそれが定量化するさまざまなバイアスを調整するだけで、フェアネスの目標を時間とともに適応できる、ユニークなフレームワークを提供する。
そこで,「フェアゲーム」は,MLシステムを中心に展開された嫌悪アルゴリズムにフィードバックを送る監査者を作成することにより,社会における倫理的・法的枠組みの進化をシミュレートすることを目的としている。
これにより、フレキシブルでアダプティブなオーバータイムのフレームワークを開発し、Fair MLシステムの構築とデプロイ後の開発を可能にします。
関連論文リスト
- Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - ABCinML: Anticipatory Bias Correction in Machine Learning Applications [9.978142416219294]
そこで本研究では,アルゴリズムがバイアスを緩和するための予測動的学習手法を提案する。
複数の実世界のデータセットに対する実験の結果は、このアプローチが予測バイアス補正を約束していることを示唆している。
論文 参考訳(メタデータ) (2022-06-14T16:26:10Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。