論文の概要: Improving Fairness in Large-Scale Object Recognition by CrowdSourced
Demographic Information
- arxiv url: http://arxiv.org/abs/2206.01326v1
- Date: Thu, 2 Jun 2022 22:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:04:58.703956
- Title: Improving Fairness in Large-Scale Object Recognition by CrowdSourced
Demographic Information
- Title(参考訳): クラウドソースデモグラフィック情報による大規模物体認識の公平性向上
- Authors: Zu Kim and Andr\'e Araujo and Bingyi Cao and Cam Askew and Jack Sim
and Mike Green and N'Mah Fodiatu Yilla and Tobias Weyand
- Abstract要約: 機械学習データセットでオブジェクトをかなり表現することは、特定の文化に対するバイアスの少ないモデルにつながるだろう。
コントリビュータの人口構成をクラウドソーシングした,シンプルで汎用的なアプローチを提案する。
既存のデータセットと比較して、より公平な世界カバレッジをもたらす分析結果を提示します。
- 参考スコア(独自算出の注目度): 7.968124582214686
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: There has been increasing awareness of ethical issues in machine learning,
and fairness has become an important research topic. Most fairness efforts in
computer vision have been focused on human sensing applications and preventing
discrimination by people's physical attributes such as race, skin color or age
by increasing visual representation for particular demographic groups. We argue
that ML fairness efforts should extend to object recognition as well.
Buildings, artwork, food and clothing are examples of the objects that define
human culture. Representing these objects fairly in machine learning datasets
will lead to models that are less biased towards a particular culture and more
inclusive of different traditions and values. There exist many research
datasets for object recognition, but they have not carefully considered which
classes should be included, or how much training data should be collected per
class. To address this, we propose a simple and general approach, based on
crowdsourcing the demographic composition of the contributors: we define fair
relevance scores, estimate them, and assign them to each class. We showcase its
application to the landmark recognition domain, presenting a detailed analysis
and the final fairer landmark rankings. We present analysis which leads to a
much fairer coverage of the world compared to existing datasets. The evaluation
dataset was used for the 2021 Google Landmark Challenges, which was the first
of a kind with an emphasis on fairness in generic object recognition.
- Abstract(参考訳): 機械学習では倫理的な問題に対する意識が高まり、公平性が重要な研究テーマとなっている。
コンピュータビジョンにおけるフェアネスの取り組みは、人種、肌の色、年齢などの身体的属性による差別を、特定の人口集団の視覚的表現を増大させることによって防止することに焦点を当てている。
MLフェアネスの取り組みは、オブジェクト認識にも拡張されるべきである。
建物、アートワーク、食品、衣服は、人間の文化を定義する対象の例である。
機械学習データセットでこれらのオブジェクトを公平に表現すると、特定の文化に対する偏りが少なく、異なる伝統や価値観を包含するモデルにつながります。
オブジェクト認識のための研究データセットは数多く存在するが、どのクラスを含めるべきか、あるいはクラスごとにどれだけのトレーニングデータを集めるべきかを慎重に検討していない。
これに対処するため、私たちは、貢献者の人口構成をクラウドソーシングすることに基づいて、単純で一般的なアプローチを提案します。
我々は、ランドマーク認識ドメインにその適用例を示し、詳細な分析と、最終的な公正なランドマークランキングを提示した。
我々は、既存のデータセットと比較して世界をより公平にカバーする分析を行う。
この評価データセットは、2021年のgoogle landmark challengeで使用された。
関連論文リスト
- Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - ColorSense: A Study on Color Vision in Machine Visual Recognition [57.916512479603064]
視覚認識ベンチマークから,前景や背景色ラベルの非自明なアノテーション110,000点を収集する。
色識別のレベルがマシン認識モデルの性能に与える影響を実証することにより、データセットの使用を検証した。
その結果,分類や局所化などの物体認識タスクは,色覚バイアスの影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - A survey on datasets for fairness-aware machine learning [6.962333053044713]
多くのフェアネス対応機械学習ソリューションが提案されている。
本稿では,フェアネスを意識した機械学習に使用される実世界のデータセットについて概説する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
論文 参考訳(メタデータ) (2021-10-01T16:54:04Z) - Towards A Fairer Landmark Recognition Dataset [9.654500155170172]
我々は、世界の公正な表現に焦点を当てたランドマーク認識データセットを作成します。
私たちはまず、世界人口に対するランドマークの公正な関連性を定義することから始めます。
これらの関連性は、匿名化されたGoogleマップのユーザコントリビューション統計と、コントリビュータの人口統計情報を組み合わせることで推定される。
論文 参考訳(メタデータ) (2021-08-19T18:42:22Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。