論文の概要: Decorrelation with conditional normalizing flows
- arxiv url: http://arxiv.org/abs/2211.02486v1
- Date: Fri, 4 Nov 2022 14:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 17:38:01.374853
- Title: Decorrelation with conditional normalizing flows
- Title(参考訳): 条件付き正規化流れとの相関
- Authors: Samuel Klein, Tobias Golling
- Abstract要約: 保護属性に条件付けされた正規化フローを用いて,識別対象の非相関表現を見つけることができることを示す。
我々は,背景の質量分布にほとんど彫刻を生じさせない教師付きジェットタグを製作することで,我々のアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The sensitivity of many physics analyses can be enhanced by constructing
discriminants that preferentially select signal events. Such discriminants
become much more useful if they are uncorrelated with a set of protected
attributes. In this paper we show a normalizing flow conditioned on the
protected attributes can be used to find a decorrelated representation for any
discriminant. As a normalizing flow is invertible the separation power of the
resulting discriminant will be unchanged at any fixed value of the protected
attributes. We demonstrate the efficacy of our approach by building supervised
jet taggers that produce almost no sculpting in the mass distribution of the
background.
- Abstract(参考訳): 多くの物理解析の感度は、信号イベントを優先的に選択する判別器を構築することで向上することができる。
このような判別薬は、保護された属性のセットと無関係である場合、より有用になる。
本稿では,保護属性を条件とした正規化フローを用いて,任意の判別値に対する相関表現を求めることができることを示す。
正規化フローが可逆であるので、得られた判別器の分離力は保護された属性の任意の固定値で変化する。
我々は,背景の質量分布にほとんど彫刻を生じさせない教師付きジェットタグを製作することで,我々のアプローチの有効性を実証する。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Practical Bias Mitigation through Proxy Sensitive Attribute Label
Generation [0.0]
本稿では,非教師なし埋め込み生成の2段階的アプローチとクラスタリングによるプロキシ・センシティブなラベルの取得を提案する。
我々の研究の有効性は、バイアスが感度属性と相関する非感度属性を通して伝播するという仮定に依存している。
実験結果から、Fair MixupやAdversarial Debiasingといった既存のアルゴリズムによるバイアス緩和は、導出されたプロキシラベルに匹敵する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-12-26T10:54:15Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Counterfactual Reasoning for Bias Evaluation and Detection in a Fairness
under Unawareness setting [6.004889078682389]
現在のAI規制では、不公平な結果を防ぐために、アルゴリズムの意思決定プロセスで機密機能を破棄する必要がある。
本稿では、機密機能が破棄された場合でも継続可能な機械学習モデルの潜在的な隠れバイアスを明らかにする方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T10:36:18Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - A fuzzy-rough uncertainty measure to discover bias encoded explicitly or
implicitly in features of structured pattern classification datasets [0.0]
保護属性と非保護属性の相関によって定義された非保護特徴に暗黙的に符号化されたバイアスの存在について検討した。
境界領域の変化を最も捉えるファジィ演算子と距離関数を決定するために感度解析を行う。
論文 参考訳(メタデータ) (2021-08-20T10:27:32Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。