論文の概要: Adversarial Learned Fair Representations using Dampening and Stacking
- arxiv url: http://arxiv.org/abs/2203.08637v1
- Date: Wed, 16 Mar 2022 14:07:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-03-17 20:29:19.783616
- Title: Adversarial Learned Fair Representations using Dampening and Stacking
- Title(参考訳): ダンピングと積み重ねを用いた敵対的学習フェア表現
- Authors: Max Knobbout
- Abstract要約: 公平な表現学習では、センシティブな変数が検閲されるデータの適切な表現を見つけることを任務としている。
最近の研究は、敵対的な学習を通して公正な表現を学ぶことを目的としている。
本研究は, 減衰と重ね合わせを用いて対向公正表現を学習する新しいアルゴリズムを導入することにより, 本研究を基礎にしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As more decisions in our daily life become automated, the need to have
machine learning algorithms that make fair decisions increases. In fair
representation learning we are tasked with finding a suitable representation of
the data in which a sensitive variable is censored. Recent work aims to learn
fair representations through adversarial learning. This paper builds upon this
work by introducing a novel algorithm which uses dampening and stacking to
learn adversarial fair representations. Results show that that our algorithm
improves upon earlier work in both censoring and reconstruction.
- Abstract(参考訳): 日々の意思決定が自動化されると、公平な意思決定を行う機械学習アルゴリズムの必要性が高まる。
公平な表現学習では、センシティブな変数が検閲されるデータの適切な表現を見つけることが求められます。
最近の研究は、敵対的学習を通じて公平な表現を学ぶことを目的としている。
本稿では, 制振と積み重ねを用いて, 敵対的公正表現を学習する新しいアルゴリズムを提案する。
その結果,このアルゴリズムは,検閲と再構成の両面で初期の作業により改善されていることがわかった。
関連論文リスト
- RaSa: Relation and Sensitivity Aware Representation Learning for
Text-based Person Search [51.09723403468361]
関係性と感性を考慮した表現学習法(RaSa)を提案する。
RaSaにはリレーショナル・アウェア・ラーニング(RA)と感性・アウェア・ラーニング(SA)という2つの新しいタスクが含まれている。
実験によると、RaSaは既存の最先端メソッドを6.94%、4.45%、および15.35%で上回っている。
論文 参考訳(メタデータ) (2023-05-23T03:53:57Z) - Sustaining Fairness via Incremental Learning [16.985698188471016]
本稿では,新たなタスクを段階的に学習しながら,公平性を維持できる表現学習システムであるFairness-Aware Incremental Representation Learning (FaIRL)を提案する。
FaIRLは、学習した表現の速度歪み関数を制御することにより、公平性を達成し、新しいタスクを学習することができる。
論文 参考訳(メタデータ) (2022-08-25T17:02:37Z) - Representation Learning for Context-Dependent Decision-Making [22.16801879707937]
文脈変化を伴う逐次意思決定シナリオにおける表現学習について検討する。
本稿では,文脈依存表現の学習と伝達が可能なオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-12T01:06:57Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Coping with Mistreatment in Fair Algorithms [1.2183405753834557]
教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このバイアスを軽減するための概念的にシンプルな方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
論文 参考訳(メタデータ) (2021-02-22T03:26:06Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。