論文の概要: Fair Feature Distillation for Visual Recognition
- arxiv url: http://arxiv.org/abs/2106.04411v2
- Date: Thu, 10 Jun 2021 13:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 13:58:57.182782
- Title: Fair Feature Distillation for Visual Recognition
- Title(参考訳): 視覚認識のための高機能蒸留
- Authors: Sangwon Jung, Donggyu Lee, Taeeon Park and Taesup Moon
- Abstract要約: 視覚認識タスクのための特徴蒸留によるアルゴリズムバイアスを低減する体系的なアプローチを考案する。
MFDは、合成と実世界の両方の顔データセットの精度を損なうことなく、特定のマイノリティに対する偏見を著しく軽減することを示す。
- 参考スコア(独自算出の注目度): 16.440434996206626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness is becoming an increasingly crucial issue for computer vision,
especially in the human-related decision systems. However, achieving
algorithmic fairness, which makes a model produce indiscriminative outcomes
against protected groups, is still an unresolved problem. In this paper, we
devise a systematic approach which reduces algorithmic biases via feature
distillation for visual recognition tasks, dubbed as MMD-based Fair
Distillation (MFD). While the distillation technique has been widely used in
general to improve the prediction accuracy, to the best of our knowledge, there
has been no explicit work that also tries to improve fairness via distillation.
Furthermore, We give a theoretical justification of our MFD on the effect of
knowledge distillation and fairness. Throughout the extensive experiments, we
show our MFD significantly mitigates the bias against specific minorities
without any loss of the accuracy on both synthetic and real-world face
datasets.
- Abstract(参考訳): 公平さはコンピュータビジョン、特に人間関連の意思決定システムにとってますます重要な問題になりつつある。
しかし、モデルが保護されたグループに対して無差別の結果を生み出すアルゴリズム的公正性を達成することは、まだ未解決の問題である。
本稿では,mmd-based fair distillation (mfd) と呼ばれる視覚認識タスクのための特徴蒸留によるアルゴリズムバイアスを低減する体系的アプローチを提案する。
蒸留技術は一般的に予測精度を向上させるために広く用いられてきたが、我々の知る限りでは、蒸留による公正性向上を図った明確な研究は行われていない。
さらに,我々はmfdの理論的正当化を,知識蒸留と公平性の影響に与えた。
広範な実験を通じて,mfdは,合成データと実世界の顔データセットの両方の精度を損なうことなく,特定のマイノリティに対するバイアスを著しく軽減することを示した。
関連論文リスト
- Bit-mask Robust Contrastive Knowledge Distillation for Unsupervised
Semantic Hashing [71.47723696190184]
セマンティックハッシュのための革新的なBit-mask Robust Contrastive Knowledge Distillation (BRCD)法を提案する。
BRCDはセマンティックハッシュモデルの蒸留のために特別に考案されている。
論文 参考訳(メタデータ) (2024-03-10T03:33:59Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Toward Fair Facial Expression Recognition with Improved Distribution
Alignment [19.442685015494316]
本稿では,表情認識(FER)モデルにおけるバイアスを軽減する新しい手法を提案する。
本手法は、FERモデルによる埋め込みにおいて、性別、年齢、人種などの機密属性情報を低減することを目的としている。
ferモデルにおいて、魅力の概念を重要な感度属性として分析し、FERモデルがより魅力的な顔に対するバイアスを実際に示できることを実証する。
論文 参考訳(メタデータ) (2023-06-11T14:59:20Z) - Understanding Masked Autoencoders via Hierarchical Latent Variable
Models [109.35382136147349]
Masked Autoencoder (MAE) は近年,様々な視覚タスクにおいて顕著な成功を収めている。
MAEに関する興味深い経験的観察の出現にもかかわらず、理論的に原理化された理解はいまだに欠如している。
論文 参考訳(メタデータ) (2023-06-08T03:00:10Z) - A Comprehensive Study on Dataset Distillation: Performance, Privacy,
Robustness and Fairness [8.432686179800543]
我々は,現在最先端のデータセット蒸留法を評価するために,広範囲な実験を行っている。
私たちは、プライバシーリスクがまだ残っていることを示すために、メンバーシップ推論攻撃をうまく利用しています。
この研究は、データセットの蒸留評価のための大規模なベンチマークフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-05T08:19:27Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations [12.248793742165278]
我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
論文 参考訳(メタデータ) (2022-12-07T18:35:54Z) - RegMixup: Mixup as a Regularizer Can Surprisingly Improve Accuracy and
Out Distribution Robustness [94.69774317059122]
学習目的として使うのではなく、標準のクロスエントロピー損失に対する追加の正則化剤として利用すれば、良好なミックスアップの有効性がさらに向上できることが示される。
この単純な変更は、精度を大幅に改善するだけでなく、Mixupの予測不確実性推定の品質を大幅に改善する。
論文 参考訳(メタデータ) (2022-06-29T09:44:33Z) - Escaping Data Scarcity for High-Resolution Heterogeneous Face
Hallucination [68.78903256687697]
Heterogeneous Face Recognition (HFR) では、視覚や熱といった2つの異なる領域にまたがる顔のマッチングが目的である。
合成によるギャップを埋めようとする最近の手法は有望な結果を得たが、ペアトレーニングデータの不足により、その性能は依然として制限されている。
本稿では,HFRのための新しい顔幻覚パラダイムを提案する。これはデータ効率のよい合成を可能にするだけでなく,プライバシポリシーを破ることなくモデルトレーニングのスケールアップを可能にする。
論文 参考訳(メタデータ) (2022-03-30T20:44:33Z) - Pareto Efficient Fairness in Supervised Learning: From Extraction to
Tracing [26.704236797908177]
アルゴリズムによる意思決定システムの普及が進んでいる。
測定と精度の本質的にのトレードオフのため、全体的な損失とその他の基準とのトレードオフを確保することが望ましい。
定義に依存しない、つまり、明確に定義された概念を PEF の概念に還元できることを意味する。
論文 参考訳(メタデータ) (2021-04-04T15:49:35Z) - Circumventing Outliers of AutoAugment with Knowledge Distillation [102.25991455094832]
AutoAugmentは多くの視覚タスクの精度を向上させる強力なアルゴリズムである。
本論文は作業機構を深く掘り下げ,AutoAugmentがトレーニング画像から識別情報の一部を除去できることを明らかにする。
教師モデルの出力に言及した知識蒸留を用いて,ネットワークトレーニングの指導を行う。
論文 参考訳(メタデータ) (2020-03-25T11:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。