論文の概要: Fairness Indicators for Systematic Assessments of Visual Feature
Extractors
- arxiv url: http://arxiv.org/abs/2202.07603v1
- Date: Tue, 15 Feb 2022 17:45:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 14:59:09.760002
- Title: Fairness Indicators for Systematic Assessments of Visual Feature
Extractors
- Title(参考訳): 視覚特徴指数の体系的評価のための公正指標
- Authors: Priya Goyal, Adriana Romero Soriano, Caner Hazirbas, Levent Sagun,
Nicolas Usunier
- Abstract要約: 視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
- 参考スコア(独自算出の注目度): 21.141633753573764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Does everyone equally benefit from computer vision systems? Answers to this
question become more and more important as computer vision systems are deployed
at large scale, and can spark major concerns when they exhibit vast performance
discrepancies between people from various demographic and social backgrounds.
Systematic diagnosis of fairness, harms, and biases of computer vision systems
is an important step towards building socially responsible systems. To initiate
an effort towards standardized fairness audits, we propose three fairness
indicators, which aim at quantifying harms and biases of visual systems. Our
indicators use existing publicly available datasets collected for fairness
evaluations, and focus on three main types of harms and bias identified in the
literature, namely harmful label associations, disparity in learned
representations of social and demographic traits, and biased performance on
geographically diverse images from across the world.We define precise
experimental protocols applicable to a wide range of computer vision models.
These indicators are part of an ever-evolving suite of fairness probes and are
not intended to be a substitute for a thorough analysis of the broader impact
of the new computer vision technologies. Yet, we believe it is a necessary
first step towards (1) facilitating the widespread adoption and mandate of the
fairness assessments in computer vision research, and (2) tracking progress
towards building socially responsible models. To study the practical
effectiveness and broad applicability of our proposed indicators to any visual
system, we apply them to off-the-shelf models built using widely adopted model
training paradigms which vary in their ability to whether they can predict
labels on a given image or only produce the embeddings. We also systematically
study the effect of data domain and model size.
- Abstract(参考訳): 誰もがコンピュータビジョンシステムの利点を享受できるだろうか?
コンピュータビジョンシステムが大規模に展開されるにつれて、この問題に対する回答はますます重要になってきており、様々な人口動態や社会的背景を持つ人々の間で大きなパフォーマンスの相違が生じると、大きな懸念が持ち上がる。
コンピュータビジョンシステムの公平性、害、偏見の体系的診断は、社会的に責任のあるシステムを構築するための重要なステップである。
標準化された公正度監査に向けた取り組みを開始するために,視覚システムの害やバイアスの定量化を目的とした3つの公正度指標を提案する。
本稿では, 公正性評価のために収集された既存の公開データセットを用いて, 文献における有害ラベル関連, 社会的・人口的特性の学習表現の差異, 地理的に多様な画像に対する偏り, および, 幅広いコンピュータビジョンモデルに適用可能な正確な実験的プロトコルを定義した。
これらの指標は、絶えず進化を続けるフェアネスプローブの一部であり、新しいコンピュータビジョン技術が与える幅広い影響を徹底的に分析するための代替となるものではない。
しかし,コンピュータビジョン研究におけるフェアネスアセスメントの普及と委任の促進,および社会的に責任のあるモデル構築に向けた進展の追跡は,(1)第1段階が必要であると我々は信じている。
提案する指標を任意の視覚システムに適用し,その実用性と適用性について検討するため,本論文では,画像上のラベルを予測できるのか,あるいは埋め込みのみを生成できるのかを,広く採用されているモデルトレーニングパラダイムを用いて構築したオフ・ザ・シェルフモデルに適用する。
また,データ領域とモデルサイズの影響を体系的に研究する。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - Synthetic Counterfactual Faces [1.3062016289815055]
我々は、ターゲットとなる、対実的で高品質な合成顔データを構築するための生成AIフレームワークを構築します。
私たちのパイプラインには、顔認識システム感度評価や画像理解システムプローブなど、多くのユースケースがあります。
商用ビジョンモデルにおける顔生成パイプラインの有効性を示す。
論文 参考訳(メタデータ) (2024-07-18T22:22:49Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Towards Reliable Assessments of Demographic Disparities in Multi-Label
Image Classifiers [11.973749734226852]
マルチラベル画像分類と,特に対象分類タスクについて検討する。
測定のための設計選択とトレードオフは、以前のコンピュータビジョン文学で議論されたよりもニュアンスが高い。
実装の詳細にだけ似ているが、評価の結論に大きな影響を及ぼすいくつかの設計選択を特定します。
論文 参考訳(メタデータ) (2023-02-16T20:34:54Z) - ColorSense: A Study on Color Vision in Machine Visual Recognition [57.916512479603064]
視覚認識ベンチマークから,前景や背景色ラベルの非自明なアノテーション110,000点を収集する。
色識別のレベルがマシン認識モデルの性能に与える影響を実証することにより、データセットの使用を検証した。
その結果,分類や局所化などの物体認識タスクは,色覚バイアスの影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。