論文の概要: Towards Auditability for Fairness in Deep Learning
- arxiv url: http://arxiv.org/abs/2012.00106v1
- Date: Mon, 30 Nov 2020 21:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:56:27.124986
- Title: Towards Auditability for Fairness in Deep Learning
- Title(参考訳): 深層学習における公平性の監査に向けて
- Authors: Ivoline C. Ngong, Krystal Maughan, Joseph P. Near
- Abstract要約: グループフェアネスのメトリクスは、深層学習モデルが有利で不利なグループに対して異なる振る舞いをするのを検出することができる。
深層学習モデルの個人的公正度を効率よく計算したスムーズな予測感度を示す。
- 参考スコア(独自算出の注目度): 1.052782170493037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group fairness metrics can detect when a deep learning model behaves
differently for advantaged and disadvantaged groups, but even models that score
well on these metrics can make blatantly unfair predictions. We present smooth
prediction sensitivity, an efficiently computed measure of individual fairness
for deep learning models that is inspired by ideas from interpretability in
deep learning. smooth prediction sensitivity allows individual predictions to
be audited for fairness. We present preliminary experimental results suggesting
that smooth prediction sensitivity can help distinguish between fair and unfair
predictions, and that it may be helpful in detecting blatantly unfair
predictions from "group-fair" models.
- Abstract(参考訳): グループフェアネスメトリクスは、ディープラーニングモデルが有利で不利なグループに対して異なる振舞いをするのを検出することができるが、これらのメトリクスをうまく評価するモデルであっても、不公平な予測を生じさせる可能性がある。
深層学習における解釈可能性から着想を得た深層学習モデルに対して,個別の公正度を効率よく計算したスムーズな予測感度を示す。
スムーズな予測感度により 個別の予測を公正に監査できる
本研究では,スムーズな予測感度が不公平な予測と不公平な予測の区別に役立ち,グループフェアモデルから不公平な予測を検出できる可能性が示唆された。
関連論文リスト
- When Fairness Meets Privacy: Exploring Privacy Threats in Fair Binary Classifiers via Membership Inference Attacks [17.243744418309593]
本研究では,公平度差分結果に基づく公平度向上モデルに対する効率的なMIA手法を提案する。
また、プライバシー漏洩を緩和するための潜在的戦略についても検討する。
論文 参考訳(メタデータ) (2023-11-07T10:28:17Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Beyond Confidence: Reliable Models Should Also Consider Atypicality [43.012818086415514]
サンプルやクラスが非典型的であるかとモデルの予測の信頼性との関係について検討する。
非定型入力や非定型クラスの予測は、より過信であり、精度が低いことを示す。
モデルの信頼性だけでなく,不確かさの定量化や性能向上にも非定型性を用いるべきである。
論文 参考訳(メタデータ) (2023-05-29T17:37:09Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Prediction Sensitivity: Continual Audit of Counterfactual Fairness in
Deployed Classifiers [2.0625936401496237]
従来のグループフェアネスのメトリクスは個人に対する差別を見逃しかねず、デプロイ後に適用するのが困難である。
本稿では,デプロイされた分類器における対実的公正性の連続的な監査手法である予測感度について述べる。
実証実験の結果,予測感度は反実的公正さの違反を検出するのに有効であることが示された。
論文 参考訳(メタデータ) (2022-02-09T15:06:45Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Towards a Measure of Individual Fairness for Deep Learning [2.4366811507669124]
本稿では,現代のディープラーニングフレームワークに存在する標準的な自動微分機能を用いて,予測感度の計算方法を示す。
予備実験の結果、予測感度は個々の予測におけるバイアスを測定するのに有効である可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-28T21:53:21Z) - Counterfactual Predictions under Runtime Confounding [74.90756694584839]
本研究は, 過去のデータからすべての関連要因を抽出した環境で, 事実予測タスクについて検討する。
本稿では,この環境下での対実予測モデル学習のための2次ロバスト手法を提案する。
論文 参考訳(メタデータ) (2020-06-30T15:49:05Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。