論文の概要: Monitoring Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2305.15979v1
- Date: Thu, 25 May 2023 12:17:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 15:16:53.258186
- Title: Monitoring Algorithmic Fairness
- Title(参考訳): アルゴリズムフェアネスのモニタリング
- Authors: Thomas A. Henzinger, Mahyar Karimi, Konstantin Kueffner, Kaushik
Mallik
- Abstract要約: 本稿では,モデルが不明なシステムに対して,アルゴリズムフェアネスの実行時検証を行う。
我々は,多くの共通アルゴリズムフェアネス特性をモデル化できる仕様言語を導入する。
我々は、銀行が異なる社会的背景を持つ応募者にローンを貸与する上で公正であるかどうか、大学が学生の受け入れに公正であるかどうかを、どのように監視できるかを示す。
- 参考スコア(独自算出の注目度): 3.372200852710289
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine-learned systems are in widespread use for making decisions about
humans, and it is important that they are fair, i.e., not biased against
individuals based on sensitive attributes. We present runtime verification of
algorithmic fairness for systems whose models are unknown, but are assumed to
have a Markov chain structure. We introduce a specification language that can
model many common algorithmic fairness properties, such as demographic parity,
equal opportunity, and social burden. We build monitors that observe a long
sequence of events as generated by a given system, and output, after each
observation, a quantitative estimate of how fair or biased the system was on
that run until that point in time. The estimate is proven to be correct modulo
a variable error bound and a given confidence level, where the error bound gets
tighter as the observed sequence gets longer. Our monitors are of two types,
and use, respectively, frequentist and Bayesian statistical inference
techniques. While the frequentist monitors compute estimates that are
objectively correct with respect to the ground truth, the Bayesian monitors
compute estimates that are correct subject to a given prior belief about the
system's model. Using a prototype implementation, we show how we can monitor if
a bank is fair in giving loans to applicants from different social backgrounds,
and if a college is fair in admitting students while maintaining a reasonable
financial burden on the society. Although they exhibit different theoretical
complexities in certain cases, in our experiments, both frequentist and
Bayesian monitors took less than a millisecond to update their verdicts after
each observation.
- Abstract(参考訳): 機械学習システムは人間に関する意思決定に広く使われており、それらが公平であること、すなわち、敏感な属性に基づく個人に対する偏見がないことが重要である。
本稿では,モデルが未知であるがマルコフ連鎖構造を有するシステムに対して,アルゴリズム的公平性のランタイム検証を行う。
我々は,人口格差,平等な機会,社会的負担など,多くの一般的なアルゴリズム的公平性をモデル化できる仕様言語を導入する。
我々は,与えられたシステムで発生した事象の長い連続を観測するモニタを構築し,各観測結果から,その時点までのシステムの公正あるいは偏りを定量的に推定する。
推定値は、変数エラー境界と与えられた信頼度を正確に変調することが証明され、そこでは、観測シーケンスが長くなるにつれてエラー境界がより厳密になる。
我々のモニターは2種類のタイプで, 使用頻度とベイズ統計の推論手法について検討した。
頻度主義者は、基礎的真理に関して客観的に正しい推定値をモニターする一方で、ベイジアンは、システムのモデルに関する所定の事前の信念に基づいて正しい推定値をモニターする。
プロトタイプ実装を用いて,異なる社会的背景を持つ受験者に対して,銀行が公正であるか,大学が学生を認め,社会に合理的な財政負担を負うかの監視方法を示す。
理論的な複雑さはある場合において異なるが、我々の実験では、頻繁なモニターとベイズ型のモニターの両方がそれぞれの観測結果を更新するのに1ミリ秒もかからなかった。
関連論文リスト
- Comprehensive Equity Index (CEI): Definition and Application to Bias Evaluation in Biometrics [47.762333925222926]
本稿では,機械学習モデルのバイアス行動の定量化のための新しい指標を提案する。
顔認識システムの運用評価に焦点をあて,適用する。
論文 参考訳(メタデータ) (2024-09-03T14:19:38Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Monitoring Algorithmic Fairness under Partial Observations [3.790015813774933]
実行時検証技術は、デプロイされたシステムのアルゴリズム的公正性を監視するために導入された。
従来の監視技術は、監視されたシステムの状態の完全な可観測性を前提としている。
我々は、部分的に観測されたマルコフ連鎖としてモデル化されたシステムにフェアネスモニタリングを拡張した。
論文 参考訳(メタデータ) (2023-08-01T07:35:54Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Runtime Monitoring of Dynamic Fairness Properties [3.372200852710289]
静的意思決定タスクで公平なマシン学習システムは、長期にわたる社会的影響に偏っている可能性がある。
既存の研究は、スマートシステム設計による長期バイアスの特定と緩和を目的としているが、我々は、リアルタイムに公正さを監視する技術を導入している。
私たちのゴールは、システムによって生成されるイベントの長いシーケンスを継続的に観察するモニターを構築し、デプロイすることにあります。
論文 参考訳(メタデータ) (2023-05-08T13:32:23Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fairness in Forecasting of Observations of Linear Dynamical Systems [10.762748665074794]
本稿では, 時系列予測問題において, 公平性と即時公正性の2つの自然概念を導入する。
公平性に制約された学習問題の最適化のためのグローバル収束手法を示す。
本手法の有効性を示すために,保険申請によるバイアスデータセットとよく知られたCompASデータセットについて検討した。
論文 参考訳(メタデータ) (2022-09-12T14:32:12Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - FairCanary: Rapid Continuous Explainable Fairness [8.362098382773265]
本稿では,新しいモデルバイアス量化尺度であるQuantile Demographic Drift(QDD)を提案する。
QDDは継続的な監視シナリオに最適であり、従来のしきい値ベースのバイアスメトリクスの統計的制限に悩まされない。
QDDをFairCanaryと呼ばれる継続的モデル監視システムに組み込み、各予測毎に計算された既存の説明を再利用します。
論文 参考訳(メタデータ) (2021-06-13T17:47:44Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。