論文の概要: Leave-one-out Unfairness
- arxiv url: http://arxiv.org/abs/2107.10171v1
- Date: Wed, 21 Jul 2021 15:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:02:42.496219
- Title: Leave-one-out Unfairness
- Title(参考訳): Leave-one-out Unfairness
- Authors: Emily Black, Matt Fredrikson
- Abstract要約: これは、モデルのトレーニングデータに1人の人物が含まれたり排除されたりすることで、モデルの個人に対する予測がどれほど変化するかを特徴付ける。
一般化誤差が小さい場合を含め、実データ上でディープモデルがどのように不公平に振る舞うかを特徴付ける。
脱却不公平によって負の影響を受ける可能性のある健全な実践的応用について論じる。
- 参考スコア(独自算出の注目度): 17.221751674951562
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce leave-one-out unfairness, which characterizes how likely a
model's prediction for an individual will change due to the inclusion or
removal of a single other person in the model's training data. Leave-one-out
unfairness appeals to the idea that fair decisions are not arbitrary: they
should not be based on the chance event of any one person's inclusion in the
training data. Leave-one-out unfairness is closely related to algorithmic
stability, but it focuses on the consistency of an individual point's
prediction outcome over unit changes to the training data, rather than the
error of the model in aggregate. Beyond formalizing leave-one-out unfairness,
we characterize the extent to which deep models behave leave-one-out unfairly
on real data, including in cases where the generalization error is small.
Further, we demonstrate that adversarial training and randomized smoothing
techniques have opposite effects on leave-one-out fairness, which sheds light
on the relationships between robustness, memorization, individual fairness, and
leave-one-out fairness in deep models. Finally, we discuss salient practical
applications that may be negatively affected by leave-one-out unfairness.
- Abstract(参考訳): モデルのトレーニングデータに,他者が1人含まれたり取り除かれたりすることで,個人に対するモデルの予測がどの程度変化するかを特徴とする,一対一の不公平性を導入する。
公平な決定は任意のものではなく、訓練データに誰かの参加の機会イベントに基づいてはならない、という考え方に不公平さは訴える。
残される不公平さはアルゴリズムの安定性と密接に関連しているが、集約されたモデルのエラーではなく、トレーニングデータに対する単位変化に対する個々の点の予測結果の一貫性に焦点を当てている。
残欠不公平を定式化するだけでなく、一般化誤差が小さい場合を含む実データに対して、深いモデルが残欠不公平に振る舞う程度を特徴付ける。
さらに, 学習とランダム化平滑化手法は, 頑健性, 記憶力, 個々人の公平性, および深層モデルにおける個々人の公平性との関係に光を当てている。
最後に,不公平な離脱によって負の影響を受ける可能性のある健全な実践的応用について論じる。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Attacks on fairness in Federated Learning [1.03590082373586]
我々は、訓練されたモデルの公平性を損なう新しいタイプの攻撃を提案する。
バックドア攻撃と同様の脅威モデルを用いることで、攻撃者は集約されたモデルに不公平な性能分布を持たせることができる。
論文 参考訳(メタデータ) (2023-11-21T16:42:03Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - On the Cause of Unfairness: A Training Sample Perspective [13.258569961897907]
私たちは、トレーニングデータのレンズを通して問題を調べます。
本研究では、事前定義された概念に基づいて、サンプルを非現実的に変更することで、トレーニングサンプルが不公平性に与える影響を定量化する。
我々のフレームワークは、観察された不公平さを理解し、トレーニングデータを修復することで軽減するだけでなく、他の多くの応用にもつながります。
論文 参考訳(メタデータ) (2023-06-30T17:48:19Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Explainability for fair machine learning [10.227479910430866]
本稿では,Shapley値のパラダイムに基づく機械学習における公平性を説明するための新しいアプローチを提案する。
我々の公正な説明は、モデルがセンシティブな属性を直接操作していない場合であっても、モデル全体の不公平さを個々の入力特徴に帰着する。
本稿では,既存のトレーニング時間フェアネス介入を適用したメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T20:21:01Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Learning Individually Fair Classifier with Path-Specific Causal-Effect
Constraint [31.86959207229775]
本稿では,個々に公平な分類器を学習するための枠組みを提案する。
個人不公平(PIU)の確率を定義し、データから推定できるPIUの上界がゼロに近いように制御される最適化問題を解く。
実験結果から,本手法は精度のわずかなコストで,個別に公平な分類器を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-17T02:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。