論文の概要: KFC: Kinship Verification with Fair Contrastive Loss and Multi-Task
Learning
- arxiv url: http://arxiv.org/abs/2309.10641v1
- Date: Tue, 19 Sep 2023 14:21:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 14:13:57.159753
- Title: KFC: Kinship Verification with Fair Contrastive Loss and Multi-Task
Learning
- Title(参考訳): KFC: 公正なコントラスト損失とマルチタスク学習による関係検証
- Authors: Jia Luo Peng, Keng Wei Chang, Shang-Hong Lai
- Abstract要約: キンシップ検証は、コンピュータビジョンにおける新たな課題であり、複数の潜在的な応用がある。
まず、既存の血統データセットを組み合わせ、それぞれのアイデンティティを正しい人種にラベル付けして、人種情報を考慮に入れます。
次に,注目モジュールを用いたマルチタスク学習モデル構築手法を提案する。
- 参考スコア(独自算出の注目度): 10.716585855033347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kinship verification is an emerging task in computer vision with multiple
potential applications. However, there's no large enough kinship dataset to
train a representative and robust model, which is a limitation for achieving
better performance. Moreover, face verification is known to exhibit bias, which
has not been dealt with by previous kinship verification works and sometimes
even results in serious issues. So we first combine existing kinship datasets
and label each identity with the correct race in order to take race information
into consideration and provide a larger and complete dataset, called KinRace
dataset. Secondly, we propose a multi-task learning model structure with
attention module to enhance accuracy, which surpasses state-of-the-art
performance. Lastly, our fairness-aware contrastive loss function with
adversarial learning greatly mitigates racial bias. We introduce a debias term
into traditional contrastive loss and implement gradient reverse in race
classification task, which is an innovative idea to mix two fairness methods to
alleviate bias. Exhaustive experimental evaluation demonstrates the
effectiveness and superior performance of the proposed KFC in both standard
deviation and accuracy at the same time.
- Abstract(参考訳): キンシップ検証は、複数の潜在的なアプリケーションを持つコンピュータビジョンにおける新たなタスクである。
しかし、代表的でロバストなモデルをトレーニングするのに十分な親和性データセットは存在しません。
さらに、顔認証は、以前の血縁検証作業で対処されていないバイアスを示し、時に深刻な問題を引き起こすことが知られている。
そこで私たちはまず,既存のkinshipデータセットと各idを適切なレースにラベル付けすることにより,レース情報を考慮し,kinraceデータセットと呼ばれる大規模かつ完全なデータセットを提供する。
次に,最先端性能を超える精度を高めるために,アテンションモジュールを備えたマルチタスク学習モデル構造を提案する。
最後に, 対人学習による公正に配慮した比較的損失関数は, 人種的偏見を著しく軽減する。
従来の対照損失にデビアス項を導入し,2つのフェアネス法を混合してバイアスを緩和する革新的な手法である人種分類タスクに逆勾配を導入する。
実験により, 標準偏差と精度の両面において, 提案したKFCの有効性と優れた性能を示す。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - Kinship Identification through Joint Learning Using Kinship Verification
Ensembles [29.432483095552524]
そこで本研究では,キンシップ検証アンサンブルと分類モジュールの協調訓練に基づく新しいキンシップ識別手法を提案する。
実験では、より現実的な分布を持つ同じデータセット上でトレーニングされた場合、血縁検証の大幅なパフォーマンス向上が示されている。
論文 参考訳(メタデータ) (2020-04-14T09:34:25Z) - FR-Train: A Mutual Information-Based Approach to Fair and Robust
Training [33.385118640843416]
本稿では,公正でロバストなモデルトレーニングを行うFR-Trainを提案する。
我々の実験では、FR-Trainは、データ中毒の存在下での公正さと正確さのほとんど低下を示さなかった。
論文 参考訳(メタデータ) (2020-02-24T13:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。