論文の概要: Learning Fairness-aware Relational Structures
- arxiv url: http://arxiv.org/abs/2002.09471v1
- Date: Fri, 21 Feb 2020 18:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:05:53.687057
- Title: Learning Fairness-aware Relational Structures
- Title(参考訳): 公正な関係構造を学習する
- Authors: Yue Zhang, Arti Ramesh
- Abstract要約: 等価性を考慮した構造学習アルゴリズムであるFair-A3SLを導入する。
この結果から,Fair-A3SLは,正確な予測を行うことができるが,解釈可能かつ表現的構造を学習できることが示唆された。
- 参考スコア(独自算出の注目度): 13.712395104755783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of fair machine learning models that effectively avert bias
and discrimination is an important problem that has garnered attention in
recent years. The necessity of encoding complex relational dependencies among
the features and variables for competent predictions require the development of
fair, yet expressive relational models. In this work, we introduce Fair-A3SL, a
fairness-aware structure learning algorithm for learning relational structures,
which incorporates fairness measures while learning relational graphical model
structures. Our approach is versatile in being able to encode a wide range of
fairness metrics such as statistical parity difference, overestimation,
equalized odds, and equal opportunity, including recently proposed relational
fairness measures. While existing approaches employ the fairness measures on
pre-determined model structures post prediction, Fair-A3SL directly learns the
structure while optimizing for the fairness measures and hence is able to
remove any structural bias in the model. We demonstrate the effectiveness of
our learned model structures when compared with the state-of-the-art fairness
models quantitatively and qualitatively on datasets representing three
different modeling scenarios: i) a relational dataset, ii) a recidivism
prediction dataset widely used in studying discrimination, and iii) a
recommender systems dataset. Our results show that Fair-A3SL can learn fair,
yet interpretable and expressive structures capable of making accurate
predictions.
- Abstract(参考訳): バイアスや差別を効果的に回避する公平な機械学習モデルの開発は、近年注目を集めている重要な問題である。
有能な予測のための特徴と変数間の複雑な関係依存を符号化する必要性は、公正で表現力のある関係モデルの開発を必要とする。
本研究では,関係性モデル構造を学習しながら公平性尺度を組み込んだ関係構造学習アルゴリズムfair-a3slを提案する。
統計的パリティ差,過大評価,等化オッズ,等機会など,最近提案された関係性フェアネス尺度を含む幅広い公平度指標をエンコードできる手法は多様である。
既存のアプローチでは、事前決定されたモデル構造のフェアネス測度を予測後に採用しているが、fair-a3slはフェアネス測度に最適化しながら構造を直接学習し、したがってモデルの構造バイアスを取り除くことができる。
3つの異なるモデリングシナリオを表わすデータセット上で,最先端の公平性モデルと比較し,学習したモデル構造の有効性を示す。
一 関係データセット
二 差別を研究するのに広く用いられる偏見予測データセット及び
三 推薦システムデータセット
この結果から,Fair-A3SLは,正確な予測を行うことができるが,解釈可能かつ表現的構造を学習できることが示唆された。
関連論文リスト
- From Efficiency to Equity: Measuring Fairness in Preference Learning [3.2132738637761027]
不平等とロウルシアン正義の経済理論に触発された嗜好学習モデルの公平性を評価する。
Gini Coefficient, Atkinson Index, Kuznets Ratio を用いて,これらのモデルの公平性を定量化するための指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T15:25:56Z) - Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。