論文の概要: FairCanary: Rapid Continuous Explainable Fairness
- arxiv url: http://arxiv.org/abs/2106.07057v1
- Date: Sun, 13 Jun 2021 17:47:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:46:44.198609
- Title: FairCanary: Rapid Continuous Explainable Fairness
- Title(参考訳): FairCanary: 迅速な継続的説明可能なフェアネス
- Authors: Avijit Ghosh, Aalok Shanbhag
- Abstract要約: 本稿では、グループ内の特権を測定するために使用できる量子デモグラフィドリフトについて紹介する。
この新たな公正度スコアを,ラベルを必要とせずに実運用MLモデルのバイアスを検出するように設計された,新たなシステムの基盤とする。
このシステムをFairCanaryと呼んでいるのは、ライブデプロイされたモデルのバイアスを検出し、炭鉱の先駆的なカナリアのような、責任ある機能のセットに警告を絞り込む能力があるからです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) models are being used in all facets of today's society
to make high stake decisions like bail granting or credit lending, with very
minimal regulations. Such systems are extremely vulnerable to both propagating
and amplifying social biases, and have therefore been subject to growing
research interest. One of the main issues with conventional fairness metrics is
their narrow definitions which hide the complete extent of the bias by focusing
primarily on positive and/or negative outcomes, whilst not paying attention to
the overall distributional shape. Moreover, these metrics are often
contradictory to each other, are severely restrained by the contextual and
legal landscape of the problem, have technical constraints like poor support
for continuous outputs, the requirement of class labels, and are not
explainable.
In this paper, we present Quantile Demographic Drift, which addresses the
shortcomings mentioned above. This metric can also be used to measure
intra-group privilege. It is easily interpretable via existing attribution
techniques, and also extends naturally to individual fairness via the principle
of like-for-like comparison. We make this new fairness score the basis of a new
system that is designed to detect bias in production ML models without the need
for labels. We call the system FairCanary because of its capability to detect
bias in a live deployed model and narrow down the alert to the responsible set
of features, like the proverbial canary in a coal mine.
- Abstract(参考訳): 機械学習(ML)モデルは、非常に最小限の規制で、保釈金や貸与などの高い利害決定を行うために、今日の社会のあらゆる面で使用されている。
このようなシステムは社会バイアスの伝播と増幅の両方に極めて脆弱であり、研究の関心が高まっている。
従来の公平度測定の大きな問題の1つは、分布の全体形に注意を払わず、主に正あるいは負の結果に焦点を当ててバイアスの完全な範囲を隠蔽する、狭い定義である。
さらに、これらのメトリクスは、しばしば互いに矛盾し、問題の文脈的および法的状況によって厳しく抑制され、継続的なアウトプットに対するサポート不足、クラスラベルの要件など技術的な制約があり、説明できない。
本稿では,上記の欠点に対処するQuantile Demographic Driftを提案する。
この計量はグループ内の特権を測定するためにも用いられる。
既存の帰属法によって容易に解釈でき、また相似比較の原理によって自然に個々人の公平性にも拡張できる。
この新たな公正度スコアを,ラベルを必要とせずに実運用MLモデルのバイアスを検出するように設計された,新たなシステムの基盤とする。
このシステムをFairCanaryと呼んでいるのは、ライブデプロイされたモデルのバイアスを検出し、炭鉱の先駆的なカナリアのような責任ある機能セットに警告を絞り込む能力があるからです。
関連論文リスト
- Model Monitoring in the Absence of Labeled Data via Feature Attributions Distributions [5.167069404528051]
この論文では、予測が現実の意思決定やユーザに影響を与える前に、機械学習モデルによるMLの監視について検討する。
i)AIアライメント、AIモデルが人間の価値観と整合した振る舞いを計測すること、(ii)パフォーマンス監視、モデルが特定の精度の目標や欲求を達成するかどうかを測定すること、の2つの主要なテーマで構成されている。
論文 参考訳(メタデータ) (2025-01-18T14:07:37Z) - Root Causing Prediction Anomalies Using Explainable AI [3.970146574042422]
本稿では,機械学習モデルにおける根源的性能劣化に対する説明可能なAI(XAI)の新たな応用法を提案する。
単一機能の破損は、カスケード機能、ラベル、コンセプトドリフトを引き起こす可能性がある。
我々は、パーソナライズされた広告に使用されるモデルの信頼性を向上させるために、この手法をうまく応用した。
論文 参考訳(メタデータ) (2024-03-04T19:38:50Z) - MLAD: A Unified Model for Multi-system Log Anomaly Detection [35.68387377240593]
複数のシステムにまたがる意味的関係推論を組み込んだ新しい異常検出モデルMLADを提案する。
具体的には、Sentence-bertを用いてログシーケンス間の類似性を捉え、それらを高次元の学習可能な意味ベクトルに変換する。
我々は,各キーワードのシーケンスにおける意義を識別し,マルチシステムデータセットの全体分布をモデル化するために,アテンション層の公式を改訂する。
論文 参考訳(メタデータ) (2024-01-15T12:51:13Z) - A hybrid feature learning approach based on convolutional kernels for
ATM fault prediction using event-log data [5.859431341476405]
イベントログデータから特徴を抽出するために,畳み込みカーネル(MiniROCKETとHYDRA)に基づく予測モデルを提案する。
提案手法は,実世界の重要な収集データセットに適用される。
このモデルは、ATMのタイムリーなメンテナンスにおいてオペレータをサポートするコンテナベースの意思決定支援システムに統合された。
論文 参考訳(メタデータ) (2023-05-17T08:55:53Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Complex Event Forecasting with Prediction Suffix Trees: Extended
Technical Report [70.7321040534471]
複合イベント認識(CER)システムは、イベントのリアルタイムストリーム上のパターンを"即時"検出する能力によって、過去20年間に人気が高まっている。
このような現象が実際にCERエンジンによって検出される前に、パターンがいつ発生するかを予測する方法が不足している。
複雑なイベント予測の問題に対処しようとする形式的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-01T09:52:31Z) - FiD-Ex: Improving Sequence-to-Sequence Models for Extractive Rationale
Generation [19.73842483996047]
本研究では,セq2seqモデルの欠点に対処するFiD-Exを開発した。
FiD-Exは、ERASER説明可能性ベンチマークの複数のタスクにおける説明基準とタスク精度の観点から、以前の作業よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-12-31T07:22:15Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。