論文の概要: Towards a Measure of Individual Fairness for Deep Learning
- arxiv url: http://arxiv.org/abs/2009.13650v1
- Date: Mon, 28 Sep 2020 21:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 22:26:26.376048
- Title: Towards a Measure of Individual Fairness for Deep Learning
- Title(参考訳): 深層学習のための個別公平度尺度を目指して
- Authors: Krystal Maughan, Joseph P. Near
- Abstract要約: 本稿では,現代のディープラーニングフレームワークに存在する標準的な自動微分機能を用いて,予測感度の計算方法を示す。
予備実験の結果、予測感度は個々の予測におけるバイアスを測定するのに有効である可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.4366811507669124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has produced big advances in artificial intelligence, but
trained neural networks often reflect and amplify bias in their training data,
and thus produce unfair predictions. We propose a novel measure of individual
fairness, called prediction sensitivity, that approximates the extent to which
a particular prediction is dependent on a protected attribute. We show how to
compute prediction sensitivity using standard automatic differentiation
capabilities present in modern deep learning frameworks, and present
preliminary empirical results suggesting that prediction sensitivity may be
effective for measuring bias in individual predictions.
- Abstract(参考訳): ディープラーニングは人工知能に大きな進歩をもたらしたが、トレーニングされたニューラルネットワークはトレーニングデータにバイアスを反映し、増幅することが多く、不公平な予測をもたらす。
本稿では,特定の予測が保護属性に依存する程度を近似する,予測感度という,個人的公正性の新たな尺度を提案する。
本稿では,最新のディープラーニングフレームワークにおける標準自動微分機能を用いて予測感度を計算する方法を示し,予測感度が個人予測のバイアス測定に有効であることを示す予備実験結果を示す。
関連論文リスト
- Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Fast Uncertainty Estimates in Deep Learning Interatomic Potentials [0.0]
本研究では,単一ニューラルネットワークを用いて,アンサンブルを必要とせずに予測不確実性を推定する手法を提案する。
本研究では,不確実性の推定値の品質が深層アンサンブルから得られた値と一致することを示す。
論文 参考訳(メタデータ) (2022-11-17T20:13:39Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Learning Uncertainty with Artificial Neural Networks for Improved
Predictive Process Monitoring [0.114219428942199]
学習可能な不確実性には、トレーニングデータ不足によるモデル不確実性と、ノイズによる観察不確実性がある。
我々の貢献は、これらの不確実性の概念を予測プロセス監視タスクに適用し、不確実性に基づくモデルをトレーニングし、残りの時間と結果を予測することである。
論文 参考訳(メタデータ) (2022-06-13T17:05:27Z) - Towards Auditability for Fairness in Deep Learning [1.052782170493037]
グループフェアネスのメトリクスは、深層学習モデルが有利で不利なグループに対して異なる振る舞いをするのを検出することができる。
深層学習モデルの個人的公正度を効率よく計算したスムーズな予測感度を示す。
論文 参考訳(メタデータ) (2020-11-30T21:28:12Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。