論文の概要: Learning Interpretable Fair Representations
- arxiv url: http://arxiv.org/abs/2406.16698v1
- Date: Mon, 24 Jun 2024 15:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 14:25:06.441604
- Title: Learning Interpretable Fair Representations
- Title(参考訳): 解釈可能な公正表現の学習
- Authors: Tianhao Wang, Zana Buçinca, Zilin Ma,
- Abstract要約: 本稿では,表現学習過程において解釈可能な公正表現を学習するためのフレームワークを提案する。
我々の表現は解釈可能であることに加えて、下流分類タスクにおいてわずかに精度が高く、より公平な結果が得られる。
- 参考スコア(独自算出の注目度): 5.660855954377282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous approaches have been recently proposed for learning fair representations that mitigate unfair outcomes in prediction tasks. A key motivation for these methods is that the representations can be used by third parties with unknown objectives. However, because current fair representations are generally not interpretable, the third party cannot use these fair representations for exploration, or to obtain any additional insights, besides the pre-contracted prediction tasks. Thus, to increase data utility beyond prediction tasks, we argue that the representations need to be fair, yet interpretable. We propose a general framework for learning interpretable fair representations by introducing an interpretable "prior knowledge" during the representation learning process. We implement this idea and conduct experiments with ColorMNIST and Dsprite datasets. The results indicate that in addition to being interpretable, our representations attain slightly higher accuracy and fairer outcomes in a downstream classification task compared to state-of-the-art fair representations.
- Abstract(参考訳): 近年,予測タスクにおける不公平な結果を軽減する公平な表現を学習するための多くのアプローチが提案されている。
これらの手法の重要な動機は、表現が未知の目的を持つ第三者によって使用できることである。
しかし、現在の公正な表現は一般に解釈できないため、第三者はこれらの公正な表現を探索のために使うことができず、事前契約された予測タスク以外の追加の洞察を得ることはできない。
したがって、予測タスクを超えてデータの有用性を高めるためには、表現は公平でありながら解釈可能である必要があると論じる。
本稿では,表現学習過程において,解釈可能な「適切な知識」を導入することによって,解釈可能な公正表現を学習するための一般的な枠組みを提案する。
我々は、このアイデアを実装し、ColorMNISTおよびDspriteデータセットを用いて実験を行う。
以上の結果から,我々の表現は解釈可能であることに加えて,下流の分類課題において,最先端の公正表現と比較してわずかに精度が高く,より公平な結果が得られることが示唆された。
関連論文リスト
- Disentangled Representation with Causal Constraints for Counterfactual
Fairness [25.114619307838602]
この研究は、構造化された表現を使用することで、下流の予測モデルが反現実的公正を達成することを理論的に証明している。
本稿では,ドメイン知識に関する構造化表現を得るために,CF-VAE(Counterfactal Fairness Variational AutoEncoder)を提案する。
実験結果から,提案手法はベンチマークフェアネス法よりも高精度で精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-19T04:47:58Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - Desiderata for Representation Learning: A Causal Perspective [104.3711759578494]
我々は表現学習の因果的視点を採り、非純粋性と効率性(教師なし表現学習)と非教師なし表現学習(教師なし表現学習)を定式化する。
これは、関心のデシダータを満たす程度を計算可能なメトリクスで評価し、単一の観測データセットから不純物や不整合表現を学習する。
論文 参考訳(メタデータ) (2021-09-08T17:33:54Z) - A Tutorial on Learning Disentangled Representations in the Imaging
Domain [13.320565017546985]
汎用表現学習のアプローチとして, 遠方表現学習が提案されている。
適切な汎用表現は、控えめな量のデータを使用して、新しいターゲットタスクに対して容易に微調整できる。
解離表現はモデル説明可能性を提供し、変動要因の根底にある因果関係を理解するのに役立つ。
論文 参考訳(メタデータ) (2021-08-26T21:44:10Z) - Fair Representation Learning using Interpolation Enabled Disentanglement [9.043741281011304]
a) 下流タスクに対する学習された表現の有用性を確保しつつ、公平な不整合表現を同時に学べるか、(b) 提案手法が公正かつ正確であるかどうかに関する理論的知見を提供する。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:32:12Z) - Impossibility results for fair representations [12.483260526189447]
我々は、それを用いて訓練された異なるタスクに対して、分類器の公平性を保証できないことを論じる。
Odds Equalityのようなより洗練された公正の概念は、タスク固有のラベル付け規則を考慮していない表現によって保証されない。
論文 参考訳(メタデータ) (2021-07-07T21:12:55Z) - Learning Smooth and Fair Representations [24.305894478899948]
本稿では,特徴量と感性属性との相関関係を,公平な表現空間にマッピングすることで事前に除去する能力について検討する。
実験により,表現分布の平滑化は公平性証明の一般化保証を提供することがわかった。
表現分布の平滑化は、表現学習における最先端手法と比較して下流タスクの精度を低下させるものではない。
論文 参考訳(メタデータ) (2020-06-15T21:51:50Z) - Weakly-Supervised Disentanglement Without Compromises [53.55580957483103]
インテリジェントエージェントは、環境の変化を観察することで、有用な表現を学べるべきである。
変動の要因の少なくとも1つを共有する非I.d.画像のペアとしてそのような観測をモデル化する。
我々は,どの因子が変化したかのみを知るだけで,非絡み合った表現を学ぶのに十分であることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。