論文の概要: Monitoring of Static Fairness
- arxiv url: http://arxiv.org/abs/2507.03048v1
- Date: Thu, 03 Jul 2025 10:20:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.558688
- Title: Monitoring of Static Fairness
- Title(参考訳): 静的フェアネスのモニタリング
- Authors: Thomas A. Henzinger, Mahyar Karimi, Konstantin Kueffner, Kaushik Mallik,
- Abstract要約: 本稿では,アルゴリズムフェアネスの実行時検証の一般的な枠組みを提案する。
我々は,多くの共通アルゴリズムフェアネス特性をモデル化できる仕様言語を導入する。
我々は、異なる社会的背景を持つ申請者に対して、銀行が公正であるかどうかをいかに監視できるかを示す。
- 参考スコア(独自算出の注目度): 5.866925594233267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine-learned systems are in widespread use for making decisions about humans, and it is important that they are fair, i.e., not biased against individuals based on sensitive attributes. We present a general framework of runtime verification of algorithmic fairness for systems whose models are unknown, but are assumed to have a Markov chain structure, with or without full observation of the state space. We introduce a specification language that can model many common algorithmic fairness properties, such as demographic parity, equal opportunity, and social burden. We build monitors that observe a long sequence of events as generated by a given system, and output, after each observation, a quantitative estimate of how fair or biased the system was on that run until that point in time. The estimate is proven to be correct modulo a variable error bound and a given confidence level, where the error bound gets tighter as the observed sequence gets longer. We present two categories of monitoring algorithms, namely ones with a uniform error bound across all time points, and ones with weaker non-uniform, pointwise error bounds at different time points. Our monitoring algorithms use statistical tools that are adapted to suit the dynamic requirements of monitoring and the special needs of the fairness specifications. Using a prototype implementation, we show how we can monitor if a bank is fair in giving loans to applicants from different social backgrounds, and if a college is fair in admitting students while maintaining a reasonable financial burden on the society. In these experiments, our monitors took less than a millisecond to update their verdicts after each observation.
- Abstract(参考訳): 機械学習システムは人間に関する意思決定に広く使われており、それらが公平であること、すなわち、敏感な属性に基づく個人に対する偏見がないことが重要である。
本稿では,モデルが未知のシステムに対して,状態空間を完全に観察するか否かに関わらず,マルコフ連鎖構造を持つと仮定した,アルゴリズムフェアネスの実行時検証の一般的な枠組みを提案する。
我々は、人口統計学的パーティ、平等機会、社会的負担など、多くの一般的なアルゴリズムフェアネス特性をモデル化できる仕様言語を導入する。
所与のシステムが生成したイベントの長いシーケンスをモニタし、各観測の後、その時点までシステムの公正さや偏りを定量的に見積もる。
推定値は、変数エラー境界と与えられた信頼度を正確に変調することが証明され、そこでは、観測シーケンスが長くなるにつれてエラー境界がより厳密になる。
監視アルゴリズムには,全ての点に一様誤差が有するアルゴリズムと,異なる点に有意な非一様誤差の弱いアルゴリズムの2種類がある。
モニタリングアルゴリズムは,モニタリングのダイナミックな要件やフェアネス仕様の特別なニーズに適合する統計ツールを使用する。
試行的な実施により,大学が学生の受け入れに公平であり,社会に合理的な財政負担を負いながら,大学が学生の受け入れに公平であるかどうか,銀行が様々な社会的背景を持つ応募者に貸与する上で公平であるかどうかを確認できることを示す。
これらの実験では、モニターは1ミリ秒もかからず、各観測後に判定を更新した。
関連論文リスト
- Comprehensive Equity Index (CEI): Definition and Application to Bias Evaluation in Biometrics [47.762333925222926]
本稿では,機械学習モデルのバイアス行動の定量化のための新しい指標を提案する。
顔認識システムの運用評価に焦点をあて,適用する。
論文 参考訳(メタデータ) (2024-09-03T14:19:38Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Monitoring Algorithmic Fairness under Partial Observations [3.790015813774933]
実行時検証技術は、デプロイされたシステムのアルゴリズム的公正性を監視するために導入された。
従来の監視技術は、監視されたシステムの状態の完全な可観測性を前提としている。
我々は、部分的に観測されたマルコフ連鎖としてモデル化されたシステムにフェアネスモニタリングを拡張した。
論文 参考訳(メタデータ) (2023-08-01T07:35:54Z) - Monitoring Algorithmic Fairness [3.372200852710289]
本稿では,モデルが不明なシステムに対して,アルゴリズムフェアネスの実行時検証を行う。
我々は,多くの共通アルゴリズムフェアネス特性をモデル化できる仕様言語を導入する。
我々は、銀行が異なる社会的背景を持つ応募者にローンを貸与する上で公正であるかどうか、大学が学生の受け入れに公正であるかどうかを、どのように監視できるかを示す。
論文 参考訳(メタデータ) (2023-05-25T12:17:59Z) - Runtime Monitoring of Dynamic Fairness Properties [3.372200852710289]
静的意思決定タスクで公平なマシン学習システムは、長期にわたる社会的影響に偏っている可能性がある。
既存の研究は、スマートシステム設計による長期バイアスの特定と緩和を目的としているが、我々は、リアルタイムに公正さを監視する技術を導入している。
私たちのゴールは、システムによって生成されるイベントの長いシーケンスを継続的に観察するモニターを構築し、デプロイすることにあります。
論文 参考訳(メタデータ) (2023-05-08T13:32:23Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - FairCanary: Rapid Continuous Explainable Fairness [8.362098382773265]
本稿では,新しいモデルバイアス量化尺度であるQuantile Demographic Drift(QDD)を提案する。
QDDは継続的な監視シナリオに最適であり、従来のしきい値ベースのバイアスメトリクスの統計的制限に悩まされない。
QDDをFairCanaryと呼ばれる継続的モデル監視システムに組み込み、各予測毎に計算された既存の説明を再利用します。
論文 参考訳(メタデータ) (2021-06-13T17:47:44Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。