論文の概要: RAWLSNET: Altering Bayesian Networks to Encode Rawlsian Fair Equality of
Opportunity
- arxiv url: http://arxiv.org/abs/2104.03909v1
- Date: Tue, 16 Mar 2021 03:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 23:14:08.777451
- Title: RAWLSNET: Altering Bayesian Networks to Encode Rawlsian Fair Equality of
Opportunity
- Title(参考訳): RAWLSNET:Rawlsian Fair Equality of Opportunityを符号化するベイズ的ネットワーク
- Authors: David Liu, Zohair Shafi, William Fleisher, Tina Eliassi-Rad, Scott
Alfeld
- Abstract要約: 提案するRAWLSNETは,機会均等性(FEO)のRawlsian原則を満たすためにベイズネットワーク(BN)モデルを変更するシステムである。
本稿では, FEO アプリケーションの BN 表現を入力として RAWLSNET を記述し, 可能な限り FEO を満たすために BN のパラメータを変更し, FEO からの偏差を最小限に抑える手法について述べる。
- 参考スコア(独自算出の注目度): 4.150262974891475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present RAWLSNET, a system for altering Bayesian Network (BN) models to
satisfy the Rawlsian principle of fair equality of opportunity (FEO).
RAWLSNET's BN models generate aspirational data distributions: data generated
to reflect an ideally fair, FEO-satisfying society. FEO states that everyone
with the same talent and willingness to use it should have the same chance of
achieving advantageous social positions (e.g., employment), regardless of their
background circumstances (e.g., socioeconomic status). Satisfying FEO requires
alterations to social structures such as school assignments. Our paper
describes RAWLSNET, a method which takes as input a BN representation of an FEO
application and alters the BN's parameters so as to satisfy FEO when possible,
and minimize deviation from FEO otherwise. We also offer guidance for applying
RAWLSNET, including on recognizing proper applications of FEO. We demonstrate
the use of our system with publicly available data sets. RAWLSNET's altered BNs
offer the novel capability of generating aspirational data for FEO-relevant
tasks. Aspirational data are free from the biases of real-world data, and thus
are useful for recognizing and detecting sources of unfairness in machine
learning algorithms besides biased data.
- Abstract(参考訳): 提案するRAWLSNETは,機会均等性(FEO)のRawlsian原則を満たすためにベイズネットワーク(BN)モデルを変更するシステムである。
RAWLSNETのBNモデルは、理想的に公正なFEOに満足する社会を反映して生成されたデータという、願望的なデータ分散を生成する。
FEOは、同じ才能とそれを使用する意志を持つすべての人は、社会的地位(例えば、雇用)を、その背景にある状況(例えば、社会経済的な地位)に関わらず、同じ機会を得るべきであると述べている。
FEOを満足させるためには、学校の課題のような社会構造の変更が必要である。
本稿では, FEO アプリケーションの BN 表現を入力として RAWLSNET を記述し, 可能な限り FEO を満たすために BN のパラメータを変更し, FEO からの偏差を最小限に抑える手法について述べる。
FEOの適切な応用を認識することを含むRAWLSNETの適用に関するガイダンスも提供する。
我々は,公開データセットを用いたシステムの利用を実証する。
RAWLSNETが変更したBNは、FEO関連タスクの仮定データを生成する新しい機能を提供する。
願望データは実世界のデータのバイアスから自由であり、偏りのあるデータ以外に機械学習アルゴリズムにおける不公平な原因の認識と検出に有用である。
関連論文リスト
- Fair CoVariance Neural Networks [34.68621550644667]
本稿では,Fair CoVariance Neural Networks (FVNN) を提案する。
我々は,FVNNが類似のPCAアプローチよりも本質的に公平であることを証明する。
論文 参考訳(メタデータ) (2024-09-13T06:24:18Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - FedFA: Federated Feature Augmentation [25.130087374092383]
フェデレーション学習は、複数のパーティが生データを交換することなく、ディープモデルを協調的にトレーニングすることを可能にする。
本研究の主な目的は,クライアントのサンプルの特徴変化に対処する堅牢なフェデレーション学習アルゴリズムを開発することである。
我々は,フェデレーション機能強化の観点から,フェデレーション学習に取り組むためのFedFAを提案する。
論文 参考訳(メタデータ) (2023-01-30T15:39:55Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - A study on the distribution of social biases in self-supervised learning
visual models [1.8692254863855964]
ラベル付きデータを必要としないので、自己監視学習(SSL)は効率的でバイアスのないソリューションとして誤って現れます。
SSLモデルの種類と、それが組み込むバイアスの数との間には相関関係があることが示される。
我々は、SSLモデル選択プロセスが、デプロイされたモデルにおける社会的バイアスの数を減らすことができると結論付けている。
論文 参考訳(メタデータ) (2022-03-03T17:03:21Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Bayesian Inference Forgetting [82.6681466124663]
忘れられる権利は多くの国で合法化されているが、機械学習の施行は耐え難いコストを引き起こすだろう。
本稿では,ベイズ推論において忘れられる権利を実現するための it bayesian inference forgetting (bif) フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-16T09:52:51Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。