論文の概要: Distill and De-bias: Mitigating Bias in Face Recognition using Knowledge
Distillation
- arxiv url: http://arxiv.org/abs/2112.09786v1
- Date: Fri, 17 Dec 2021 22:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 06:27:42.820978
- Title: Distill and De-bias: Mitigating Bias in Face Recognition using Knowledge
Distillation
- Title(参考訳): 消化・脱バイアス:知識蒸留による顔認識におけるバイアスの軽減
- Authors: Prithviraj Dhar, Joshua Gleason, Aniket Roy, Carlos D. Castillo, P.
Jonathon Phillips, Rama Chellappa
- Abstract要約: 顔認識ネットワークは一般的に、性別やスキントンなどのセンシティブな属性に対してバイアスを示す。
そこで我々はD&D(Distill and De-bias)と呼ばれる新しい蒸留方式を提案する。
IJB-Cデータセットの男女差やスキントーンバイアスを低減することで,D&D++が既存のベースラインより優れていることを示す。
- 参考スコア(独自算出の注目度): 52.55494042513046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face recognition networks generally demonstrate bias with respect to
sensitive attributes like gender, skintone etc. For gender and skintone, we
observe that the regions of the face that a network attends to vary by the
category of an attribute. This might contribute to bias. Building on this
intuition, we propose a novel distillation-based approach called Distill and
De-bias (D&D) to enforce a network to attend to similar face regions,
irrespective of the attribute category. In D&D, we train a teacher network on
images from one category of an attribute; e.g. light skintone. Then distilling
information from the teacher, we train a student network on images of the
remaining category; e.g., dark skintone. A feature-level distillation loss
constrains the student network to generate teacher-like representations. This
allows the student network to attend to similar face regions for all attribute
categories and enables it to reduce bias. We also propose a second distillation
step on top of D&D, called D&D++. For the D&D++ network, we distill the
`un-biasedness' of the D&D network into a new student network, the D&D++
network. We train the new network on all attribute categories; e.g., both light
and dark skintones. This helps us train a network that is less biased for an
attribute, while obtaining higher face verification performance than D&D. We
show that D&D++ outperforms existing baselines in reducing gender and skintone
bias on the IJB-C dataset, while obtaining higher face verification performance
than existing adversarial de-biasing methods. We evaluate the effectiveness of
our proposed methods on two state-of-the-art face recognition networks:
Crystalface and ArcFace.
- Abstract(参考訳): 顔認識ネットワークは一般的に、性別やスキントーンなどの繊細な属性に関してバイアスを示す。
性別やスキントーンについては、ネットワークが参加する顔の領域が属性のカテゴリによって異なることを観察する。
これは偏見に寄与するかもしれない。
この直感に基づいて, 属性カテゴリに関係なく, 類似の顔領域にネットワークを組み込むための蒸留方式であるDistill and De-bias (D&D) を提案する。
D&Dでは、属性の1つのカテゴリ、例えば光スキントーンの画像に基づいて教師ネットワークを訓練する。
次に教師からの情報を蒸留し、残りのカテゴリ、例えばダークスキントーンの画像に基づいて学生ネットワークを訓練する。
特徴レベルの蒸留損失は、学生ネットワークを制約し、教師のような表現を生成する。
これにより、学生ネットワークはすべての属性カテゴリで同様の顔領域に出席でき、バイアスを減らすことができる。
また、D&D++と呼ばれるD&Dの上に第2の蒸留工程を提案する。
D&D++ネットワークでは、D&D++ネットワークの'un-biasedness'を新しい学生ネットワークであるD&D++ネットワークに蒸留する。
新たなネットワークをすべての属性カテゴリ(例えば、明暗のスキントーン)でトレーニングします。
これにより、属性に対するバイアスの少ないネットワークをトレーニングし、D&Dよりも高い顔検証性能を得ることができます。
IJB-Cデータセットの男女差やスキントーンバイアスを低減しつつ,既存の逆逆脱バイアス法よりも高い顔検証性能が得られることを示す。
提案手法の有効性を,CrystalfaceとArcFaceの2つの顔認識ネットワーク上で評価した。
関連論文リスト
- A Generative Framework for Self-Supervised Facial Representation Learning [18.094262972295702]
自己教師付き表現学習は、ペア化されたデータセットに頼ることなく、強力な一般化能力に注目されるようになった。
自己監督型顔表現学習は、顔のアイデンティティ、表情、ポーズや光といった外部要因の結合により未解決のままである。
自己教師型顔表現のための新しい生成フレームワークであるLatentFaceを提案する。
論文 参考訳(メタデータ) (2023-09-15T09:34:05Z) - Cross Architecture Distillation for Face Recognition [49.55061794917994]
本研究では,教師にプロンプトを組み込むことで,蒸留専門知識の管理を可能にする適応型プロンプト教師ネットワーク(APT)を開発した。
一般的な顔のベンチマークと2つの大規模な検証セットによる実験は,本手法の優位性を実証している。
論文 参考訳(メタデータ) (2023-06-26T12:54:28Z) - Learn More for Food Recognition via Progressive Self-Distillation [12.046694471161262]
食品認識のためのプログレッシブ自己蒸留法(PSD)を提案する。
プログレッシブトレーニングを使用することで、教師ネットワークはより漸進的に差別的な地域をマイニングする能力を向上させる。
推論フェーズでは、学生ネットワークの助けなしに教師ネットワークのみが使用される。
論文 参考訳(メタデータ) (2023-03-09T07:11:30Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - It's All in the Head: Representation Knowledge Distillation through
Classifier Sharing [0.29360071145551075]
教師と学生間の分類器共有による表現蒸留の促進のための2つのアプローチを提案する。
提案手法は, 画像分類, きめ細かい分類, 顔認証など, 様々なデータセットやタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-01-18T13:10:36Z) - Facial Landmark Points Detection Using Knowledge Distillation-Based
Neural Networks [5.665283675533069]
本稿では,顔のランドマーク検出のための軽量な学生ネットワークを訓練するための新しい損失関数を提案する。
我々は,2つの教員ネットワーク,トレラント・Teacher と Tough-Teacher を学生ネットワークと組み合わせて利用する。
実験結果から,提案したアーキテクチャにより,より高精度な学習ネットワークが実現されることが示唆された。
論文 参考訳(メタデータ) (2021-11-13T05:45:14Z) - Online Bag-of-Visual-Words Generation for Unsupervised Representation
Learning [59.29452780994169]
本研究では,コンベネットを訓練して画像のバッフル・オブ・ビジュアルワード(bow)表現を再構築し,表現を学習する教師・学生計画を提案する。
私たちの戦略は、教師ネットワーク(BoWターゲットを生成する役割)と学生ネットワーク(表現を学ぶ役割)の両方のオンライントレーニングと、ビジュアルワード語彙のオンライン更新を実行します。
論文 参考訳(メタデータ) (2020-12-21T18:31:21Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - Teacher-Student Training and Triplet Loss for Facial Expression
Recognition under Occlusion [29.639941810500638]
例えば、被験者がバーチャルリアリティ(VR)ヘッドセットを着用している場合など、顔の50%が隠されている場合に関心があります。
これまでの研究では、完全に視覚的な顔における事前学習された畳み込みニューラルネットワーク(CNN)が精度を向上させることが示されている。
我々は、さらなる改善を達成するために知識蒸留を採用することを提案する。
論文 参考訳(メタデータ) (2020-08-03T16:41:19Z) - Inter-Region Affinity Distillation for Road Marking Segmentation [81.3619453527367]
本研究では,大規模な教員ネットワークからより小さな学生ネットワークへ知識を蒸留する問題について検討する。
我々の手法はInter-Region Affinity KD(IntRA-KD)として知られている。
論文 参考訳(メタデータ) (2020-04-11T04:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。