論文の概要: Face4FairShifts: A Large Image Benchmark for Fairness and Robust Learning across Visual Domains
- arxiv url: http://arxiv.org/abs/2509.00658v1
- Date: Sun, 31 Aug 2025 01:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.328147
- Title: Face4FairShifts: A Large Image Benchmark for Fairness and Robust Learning across Visual Domains
- Title(参考訳): Face4FairShifts: ビジュアルドメイン間の公正性とロバスト学習のための大規模なイメージベンチマーク
- Authors: Yumeng Lin, Dong Li, Xintao Wu, Minglai Shao, Xujiang Zhao, Zhong Chen, Chen Zhao,
- Abstract要約: Face4FairShiftsは、公正な学習とドメインの一般化を評価するために設計されたベンチマークである。
データセットには、4つの視覚的に異なるドメインにわたる10万の画像が含まれており、人口統計と顔の特徴をカバーする14の属性内に39のアノテーションがある。
- 参考スコア(独自算出の注目度): 32.189958704433394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring fairness and robustness in machine learning models remains a challenge, particularly under domain shifts. We present Face4FairShifts, a large-scale facial image benchmark designed to systematically evaluate fairness-aware learning and domain generalization. The dataset includes 100,000 images across four visually distinct domains with 39 annotations within 14 attributes covering demographic and facial features. Through extensive experiments, we analyze model performance under distribution shifts and identify significant gaps. Our findings emphasize the limitations of existing related datasets and the need for more effective fairness-aware domain adaptation techniques. Face4FairShifts provides a comprehensive testbed for advancing equitable and reliable AI systems. The dataset is available online at https://meviuslab.github.io/Face4FairShifts/.
- Abstract(参考訳): マシンラーニングモデルにおける公平性と堅牢性を保証することは、特にドメインシフトの下では、依然として課題である。
フェアネス認識学習とドメイン一般化を体系的に評価するために設計された,大規模な顔画像ベンチマークであるFace4FairShiftsを提案する。
データセットには、4つの視覚的に異なるドメインにわたる10万の画像が含まれており、人口統計と顔の特徴をカバーする14の属性内に39のアノテーションがある。
広範にわたる実験により,分布シフト下でのモデル性能を解析し,重要なギャップを同定する。
本研究は、既存のデータセットの制限と、より効果的なフェアネス対応ドメイン適応技術の必要性を強調した。
Face4FairShiftsは、公平で信頼性の高いAIシステムを進化させるための包括的なテストベッドを提供する。
データセットはhttps://meviuslab.github.io/Face4FairShifts/.comで公開されている。
関連論文リスト
- Vision-G1: Towards General Vision Language Reasoning with Multi-Domain Data Curation [64.23194519770897]
8次元にわたる46のデータソースから、総合的なRL対応のビジュアル推論データセットを構築します。
このデータセットから高品質なトレーニングサンプルを識別するために,影響関数に基づくデータ選択と難易度に基づくフィルタリング手法を提案する。
我々はVLM(Vision-G1)をデータカリキュラム付きマルチラウンドRLを用いて訓練し、その視覚的推論能力を反復的に改善する。
論文 参考訳(メタデータ) (2025-08-18T07:24:33Z) - VariFace: Fair and Diverse Synthetic Dataset Generation for Face Recognition [4.409387706050884]
VariFaceは2段階の拡散に基づくパイプラインで、公正で多様な合成顔データセットを作成し、顔認識モデルをトレーニングする。
同じデータセットサイズに制約された場合、VariFaceは、以前の合成データセットよりも大幅にパフォーマンスが向上する。
VariFaceは6つの評価データセットで実際のデータセット(CASIA-WebFace)を上回った。
論文 参考訳(メタデータ) (2024-12-09T06:21:11Z) - Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Face Recognition Using Synthetic Face Data [0.0]
我々は、コンピュータグラフィックスパイプラインを介してデジタル顔のレンダリングによって生成された合成データの有望な応用を強調し、競争力のある結果を得る。
モデルを微調整することで、何十万もの実画像のトレーニングで得られた結果に匹敵する結果が得られる。
また,モデル性能に及ぼすクラス内因子(化粧品,アクセサリー,ヘアカットなど)の追加効果についても検討した。
論文 参考訳(メタデータ) (2023-05-17T09:26:10Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Landmark-Aware and Part-based Ensemble Transfer Learning Network for
Facial Expression Recognition from Static images [0.5156484100374059]
パーツベースのエンサンブルトランスファーラーニングネットワークは、人間の表情認識をモデル化します。
5つのサブネットワークで構成され、各サブネットワークは顔ランドマークの5つのサブセットのうちの1つから転送学習を行う。
リアルタイムデプロイメントの計算効率を保証するために、わずか3.28ドルのFLOPSが106ドルである。
論文 参考訳(メタデータ) (2021-04-22T18:38:33Z) - Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks [9.162936410696409]
顔の識別と顔の属性の分類のための軽量畳み込みニューラルネットワークのマルチタスクトレーニングを検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
論文 参考訳(メタデータ) (2021-03-31T14:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。