論文の概要: Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics
- arxiv url: http://arxiv.org/abs/2303.14411v1
- Date: Sat, 25 Mar 2023 09:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 19:52:18.458234
- Title: Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics
- Title(参考訳): Fairnessがクロスドメイン学習に到達 - モデルとメトリクスの新しい視点
- Authors: Leonardo Iurada, Silvia Bucci, Timothy M. Hospedales, Tatiana Tommasi
- Abstract要約: クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
- 参考スコア(独自算出の注目度): 80.07271410743806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based recognition systems are deployed at scale for several
real-world applications that inevitably involve our social life. Although being
of great support when making complex decisions, they might capture spurious
data correlations and leverage sensitive attributes (e.g. age, gender,
ethnicity). How to factor out this information while keeping a high prediction
performance is a task with still several open questions, many of which are
shared with those of the domain adaptation and generalization literature which
focuses on avoiding visual domain biases. In this work, we propose an in-depth
study of the relationship between cross-domain learning (CD) and model fairness
by introducing a benchmark on face and medical images spanning several
demographic groups as well as classification and localization tasks. After
having highlighted the limits of the current evaluation metrics, we introduce a
new Harmonic Fairness (HF) score to assess jointly how fair and accurate every
model is with respect to a reference baseline. Our study covers 14 CD
approaches alongside three state-of-the-art fairness algorithms and shows how
the former can outperform the latter. Overall, our work paves the way for a
more systematic analysis of fairness problems in computer vision. Code
available at: https://github.com/iurada/fairness_crossdomain
- Abstract(参考訳): ディープラーニングに基づく認識システムは、社会生活に必然的に関与するいくつかの現実世界のアプリケーションに対して、大規模にデプロイされる。
複雑な決定を行う際には大きな支援を受けるが、急激なデータ相関を捉え、センシティブな属性(年齢、性別、民族など)を利用することもある。
高い予測性能を維持しながらこの情報を分解する方法は、まだいくつかのオープン質問を持つタスクであり、その多くは、視覚的なドメインバイアスを避けることに焦点を当てた、ドメイン適応と一般化の文献と共有されている。
本研究では,複数の人口集団にまたがる顔画像と医用画像のベンチマークと,分類・ローカライゼーションタスクを導入することで,クロスドメイン学習(CD)とモデルフェアネスの関係を詳細に検討する。
現在の評価基準の限界を強調した後、基準基準に対して各モデルがどの程度公平で正確であるかを共同評価する新しいharmonic fairness(hf)スコアを導入する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
全体として、我々の研究はコンピュータビジョンにおける公平性の問題をより体系的に分析する道を開いた。
https://github.com/iurada/fairness_crossdomain
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Bridging the Gap: Protocol Towards Fair and Consistent Affect Analysis [24.737468736951374]
日々の生活における機械学習アルゴリズムの統合の増加は、その展開における公平性と公平性の重要性を浮き彫りにしている。
既存のデータベースと方法論は均一性に欠けており、バイアスのある評価につながっている。
この研究は、6つの感情的なデータベースを分析し、属性を注釈付けし、データベース分割のための共通のプロトコルを提案することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-05-10T22:40:01Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Towards Reliable Assessments of Demographic Disparities in Multi-Label
Image Classifiers [11.973749734226852]
マルチラベル画像分類と,特に対象分類タスクについて検討する。
測定のための設計選択とトレードオフは、以前のコンピュータビジョン文学で議論されたよりもニュアンスが高い。
実装の詳細にだけ似ているが、評価の結論に大きな影響を及ぼすいくつかの設計選択を特定します。
論文 参考訳(メタデータ) (2023-02-16T20:34:54Z) - A Survey on Fairness for Machine Learning on Graphs [2.3326951882644553]
この調査は、リレーショナルデータに対する公平性に特化した最初の調査である。
グラフマイニングの公正性において、最先端技術に関する包括的なレビューを提示することを目的としている。
論文 参考訳(メタデータ) (2022-05-11T10:40:56Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。