論文の概要: Fairness and Bias Mitigation in Computer Vision: A Survey
- arxiv url: http://arxiv.org/abs/2408.02464v1
- Date: Mon, 5 Aug 2024 13:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 13:26:57.551303
- Title: Fairness and Bias Mitigation in Computer Vision: A Survey
- Title(参考訳): コンピュータビジョンにおける公平性とバイアス軽減
- Authors: Sepehr Dehdashtian, Ruozhen He, Yi Li, Guha Balakrishnan, Nuno Vasconcelos, Vicente Ordonez, Vishnu Naresh Boddeti,
- Abstract要約: コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
- 参考スコア(独自算出の注目度): 61.01658257223365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision systems have witnessed rapid progress over the past two decades due to multiple advances in the field. As these systems are increasingly being deployed in high-stakes real-world applications, there is a dire need to ensure that they do not propagate or amplify any discriminatory tendencies in historical or human-curated data or inadvertently learn biases from spurious correlations. This paper presents a comprehensive survey on fairness that summarizes and sheds light on ongoing trends and successes in the context of computer vision. The topics we discuss include 1) The origin and technical definitions of fairness drawn from the wider fair machine learning literature and adjacent disciplines. 2) Work that sought to discover and analyze biases in computer vision systems. 3) A summary of methods proposed to mitigate bias in computer vision systems in recent years. 4) A comprehensive summary of resources and datasets produced by researchers to measure, analyze, and mitigate bias and enhance fairness. 5) Discussion of the field's success, continuing trends in the context of multimodal foundation and generative models, and gaps that still need to be addressed. The presented characterization should help researchers understand the importance of identifying and mitigating bias in computer vision and the state of the field and identify potential directions for future research.
- Abstract(参考訳): コンピュータビジョンシステムは、この分野における複数の進歩により、過去20年間に急速な進歩を目撃してきた。
これらのシステムは、高レベルな現実世界のアプリケーションにますます導入されているため、歴史的または人為的なデータにおける差別傾向の伝播や増幅、あるいは急激な相関から不注意にバイアスを学習しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
私たちが議論するトピックには
1) 公正性の起源と技術的定義は、より広い公正な機械学習文献と隣接分野から引き出されたものである。
2)コンピュータビジョンシステムにおけるバイアスの発見と分析を目的とした作業。
3)近年のコンピュータビジョンシステムにおけるバイアス軽減手法の概要
4) 偏見を測り,分析し,緩和し,公平性を高めるため,研究者が作成したリソースとデータセットの包括的要約。
5) この分野の成功, マルチモーダル基盤と生成モデルという文脈における継続的な傾向, 未解決のギャップについて考察する。
提示された特徴は、コンピュータビジョンにおける偏見の特定と緩和の重要性とフィールドの状態を理解し、将来の研究の潜在的な方向を特定するのに役立つ。
関連論文リスト
- Lookism: The overlooked bias in computer vision [11.306732956100213]
ルックリズムはコンピュータビジョンでは探索されていないが、深い意味を持つ可能性がある。
本稿では,コンピュータビジョンモデルにおける重要なバイアスとして,ルックリズムの体系的研究を提唱する。
論文 参考訳(メタデータ) (2024-08-21T09:07:20Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - A Survey on Fairness for Machine Learning on Graphs [2.3326951882644553]
この調査は、リレーショナルデータに対する公平性に特化した最初の調査である。
グラフマイニングの公正性において、最先端技術に関する包括的なレビューを提示することを目的としている。
論文 参考訳(メタデータ) (2022-05-11T10:40:56Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - A survey on datasets for fairness-aware machine learning [6.962333053044713]
多くのフェアネス対応機械学習ソリューションが提案されている。
本稿では,フェアネスを意識した機械学習に使用される実世界のデータセットについて概説する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
論文 参考訳(メタデータ) (2021-10-01T16:54:04Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。