論文の概要: Counterfactually Fair Representation
- arxiv url: http://arxiv.org/abs/2311.05420v1
- Date: Thu, 9 Nov 2023 14:58:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 15:08:17.846059
- Title: Counterfactually Fair Representation
- Title(参考訳): 対訳 公正な表現
- Authors: Zhiqun Zuo and Mohammad Mahdi Khalili and Xueru Zhang
- Abstract要約: 我々は、基礎となる因果グラフに依存する公正の概念である対実公正(CF)に焦点を当てる。
CFは、個人が知覚する結果が"偽物"の世界と同じものであることを要求します。
利用可能な全ての機能を用いてモデルを訓練する新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 14.218917211473642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of machine learning models in high-stake applications (e.g.,
healthcare, lending, college admission) has raised growing concerns due to
potential biases against protected social groups. Various fairness notions and
methods have been proposed to mitigate such biases. In this work, we focus on
Counterfactual Fairness (CF), a fairness notion that is dependent on an
underlying causal graph and first proposed by Kusner \textit{et
al.}~\cite{kusner2017counterfactual}; it requires that the outcome an
individual perceives is the same in the real world as it would be in a
"counterfactual" world, in which the individual belongs to another social
group. Learning fair models satisfying CF can be challenging. It was shown in
\cite{kusner2017counterfactual} that a sufficient condition for satisfying CF
is to \textbf{not} use features that are descendants of sensitive attributes in
the causal graph. This implies a simple method that learns CF models only using
non-descendants of sensitive attributes while eliminating all descendants.
Although several subsequent works proposed methods that use all features for
training CF models, there is no theoretical guarantee that they can satisfy CF.
In contrast, this work proposes a new algorithm that trains models using all
the available features. We theoretically and empirically show that models
trained with this method can satisfy CF\footnote{The code repository for this
work can be found in
\url{https://github.com/osu-srml/CF_Representation_Learning}}.
- Abstract(参考訳): 高リスクアプリケーション(医療、貸付、大学入学など)における機械学習モデルの利用は、保護された社会グループに対する潜在的なバイアスのために、懸念が高まっている。
このようなバイアスを軽減するために、様々な公正の概念や方法が提案されている。
本研究は,基礎となる因果グラフに依存し,Kusner \textit{et al.によって最初に提案されたフェアネスの概念である,対実フェアネス(CF)に焦点を当てる。
個人が知覚する成果は、その個人が別の社会集団に属している「偽物」の世界と同じである必要がある。
CFを満たす公正なモデルを学ぶことは難しい。
これは \cite{kusner2017counterfactual} で示され、cfを満たすのに十分条件は因果グラフの繊細な属性の子孫である機能である \textbf{not} を使用することである。
これは、すべての子孫を排除しながら、機密属性の非依存性のみを使用してCFモデルを学習する単純な方法である。
cfモデルのトレーニングにすべての機能を使用する方法が提案されているが、cfを満足できるという理論的保証はない。
対照的に、この研究は利用可能なすべての機能を使ってモデルを訓練する新しいアルゴリズムを提案する。
この方法でトレーニングされたモデルはcf\footnote{この作業のためのコードリポジトリは \url{https://github.com/osu-srml/cf_representation_learning}} で見ることができる。
関連論文リスト
- CF-GO-Net: A Universal Distribution Learner via Characteristic Function Networks with Graph Optimizers [8.816637789605174]
本稿では,分布に直接対応する確率的記述子である特徴関数(CF)を用いる手法を提案する。
確率密度関数 (pdf) とは異なり、特徴関数は常に存在するだけでなく、さらなる自由度を与える。
提案手法では,訓練済みのオートエンコーダなどの事前学習モデルを使用することで,特徴空間で直接学習することができる。
論文 参考訳(メタデータ) (2024-09-19T09:33:12Z) - Counterfactual Fairness by Combining Factual and Counterfactual Predictions [18.950415688199993]
医療や雇用といった高度な分野において、意思決定における機械学習(ML)の役割は、かなりの公平さの懸念を提起する。
この研究は、あらゆる個人に対するMLモデルの結果が、異なる人口集団に属していた場合、変化しないべきであると仮定する対実公正(CF)に焦点を当てている。
本稿では,CFと予測性能のトレードオフをモデルに依存しない形で理論的に検討する。
論文 参考訳(メタデータ) (2024-09-03T15:21:10Z) - uSF: Learning Neural Semantic Field with Uncertainty [0.0]
USFと呼ばれる拡張ベクトル表現の生成のための新しいニューラルネットワークモデルを提案する。
トレーニング用画像の少ない場合、不確実性を定量化するモデルは、そのような機能を持たないモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-13T09:34:01Z) - A Generic Stochastic Hybrid Car-following Model Based on Approximate
Bayesian Computation [10.05436171946782]
自動車追従モデル(CFモデル)は、交通力学を記述する上で基本的なものである。
最高のCFモデルを見つけることは、何十年にもわたっての研究にもかかわらず、困難で議論の的になっている。
本稿では,複数のCFモデルを統合するための学習手法を開発する。
論文 参考訳(メタデータ) (2023-11-27T04:14:13Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Not All Models Are Equal: Predicting Model Transferability in a
Self-challenging Fisher Space [51.62131362670815]
本稿では、トレーニング済みのディープニューラルネットワークのランク付けと、下流タスクにおける最も転送可能なニューラルネットワークのスクリーニングの問題に対処する。
textbfSelf-challenging textbfFisher textbfDiscriminant textbfAnalysis (textbfSFDA)と呼ばれる新しい転送可能性指標を提案する。
論文 参考訳(メタデータ) (2022-07-07T01:33:25Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - BCFNet: A Balanced Collaborative Filtering Network with Attention
Mechanism [106.43103176833371]
協調フィルタリング(CF)ベースの推奨方法が広く研究されている。
BCFNet(Balanced Collaborative Filtering Network)という新しい推薦モデルを提案する。
さらに注意機構は、暗黙のフィードバックの中で隠れた情報をよりよく捉え、ニューラルネットワークの学習能力を強化するように設計されている。
論文 参考訳(メタデータ) (2021-03-10T14:59:23Z) - Bayesian Inference Forgetting [82.6681466124663]
忘れられる権利は多くの国で合法化されているが、機械学習の施行は耐え難いコストを引き起こすだろう。
本稿では,ベイズ推論において忘れられる権利を実現するための it bayesian inference forgetting (bif) フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-16T09:52:51Z) - Learnable Boundary Guided Adversarial Training [66.57846365425598]
私たちは、あるクリーンモデルからのモデルロジットを使用して、別のロバストモデルの学習をガイドします。
我々は、CIFAR-100上で、追加の実データや合成データなしで、新しい最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2020-11-23T01:36:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。