論文の概要: MMD-B-Fair: Learning Fair Representations with Statistical Testing
- arxiv url: http://arxiv.org/abs/2211.07907v1
- Date: Tue, 15 Nov 2022 05:25:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 13:40:50.110946
- Title: MMD-B-Fair: Learning Fair Representations with Statistical Testing
- Title(参考訳): MMD-B-Fair:統計的テストによる公正表現の学習
- Authors: Namrata Deka and Danica J. Sutherland
- Abstract要約: 本稿では,カーネル2サンプルテストによるデータの公平な表現を学習するためのMDD-B-Fairを提案する。
最大平均誤差(MMD)テストでは、ターゲットに関する情報を保存しながら、機密属性の異なる値を区別できないという、データのニューラルな特徴を見つけます。
提案手法を各種データセット上で評価し,機密属性に関する情報を"隠蔽"する能力と下流転送タスクにおける有効性を示す。
- 参考スコア(独自算出の注目度): 4.669892068997491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a method, MMD-B-Fair, to learn fair representations of data via
kernel two-sample testing. We find neural features of our data where a maximum
mean discrepancy (MMD) test cannot distinguish between different values of
sensitive attributes, while preserving information about the target. Minimizing
the power of an MMD test is more difficult than maximizing it (as done in
previous work), because the test threshold's complex behavior cannot be simply
ignored. Our method exploits the simple asymptotics of block testing schemes to
efficiently find fair representations without requiring the complex adversarial
optimization or generative modelling schemes widely used by existing work on
fair representation learning. We evaluate our approach on various datasets,
showing its ability to "hide" information about sensitive attributes, and its
effectiveness in downstream transfer tasks.
- Abstract(参考訳): 本稿では,カーネル2サンプルテストによるデータの公平な表現を学習するためのMDD-B-Fairを提案する。
最大平均誤差(MMD)テストでは、ターゲットに関する情報を保存しながら、機密属性の異なる値を区別できないという、データのニューラルな特徴を見つけます。
mmdテストのパワーを最小化することは、テストしきい値の複雑な振る舞いを単純に無視できないため、(以前の作業のように)最大化するよりも難しい。
本手法は, ブロックテスト方式の単純な漸近を利用して, 複雑な対角最適化や生成的モデリング方式を必要とせずに, 公正表現を効率的に見つける。
提案手法を各種データセット上で評価し,機密属性に関する情報を"隠蔽"する能力と下流転送タスクにおける有効性を示す。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Mutual Information Regularization for Weakly-supervised RGB-D Salient
Object Detection [33.210575826086654]
弱教師付きRGB-Dサルエント物体検出モデルを提案する。
モーダル相互情報正規化による効果的なマルチモーダル表現学習に着目した。
論文 参考訳(メタデータ) (2023-06-06T12:36:57Z) - Exploring the Boundaries of Semi-Supervised Facial Expression
Recognition: Learning from In-Distribution, Out-of-Distribution, and
Unconstrained Data [19.442685015494316]
表情認識(FER)における最新の半教師あり手法11について検討する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
以上の結果から,FixMatchは非分散データに対して常に優れたパフォーマンスを実現していることを示す一方,ReMixMatchは非分散データ,非制約データ,希少データシナリオにおいて,すべてのメソッドにおいて際立っている。
論文 参考訳(メタデータ) (2023-06-02T01:40:08Z) - The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Improving LIME Robustness with Smarter Locality Sampling [0.0]
我々は、よりリアルな合成データをサンプリングするために、生成的敵ネットワークをトレーニングすることで、LIMEをより堅牢にすることを提案する。
実験では, 実世界の3つのデータセットにまたがって, 偏りのある, 逆向きな行動を検出する精度が向上することを示した。
これは、いくつかのケースでは、トップ1の精度で99.94%まで、同等な説明品質を維持しながら達成される。
論文 参考訳(メタデータ) (2020-06-22T14:36:08Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。