論文の概要: Pinpointing Why Object Recognition Performance Degrades Across Income
Levels and Geographies
- arxiv url: http://arxiv.org/abs/2304.05391v1
- Date: Tue, 11 Apr 2023 17:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 13:49:55.287791
- Title: Pinpointing Why Object Recognition Performance Degrades Across Income
Levels and Geographies
- Title(参考訳): オブジェクト認識のパフォーマンスが収入レベルや地理的に低下する理由
- Authors: Laura Gustafson, Megan Richards, Melissa Hall, Caner Hazirbas, Diane
Bouchacourt, Mark Ibrahim
- Abstract要約: 深層学習システムのパフォーマンスは、地理的に大きく低下し、低所得層となっている。
私たちは、地理的および経済的に多様な画像の一般的なベンチマークであるDollar Streetの画像に注釈を付けることで、この方向に一歩踏み出した。
これらのアノテーションは、収入や地域によってオブジェクトがどのように異なるかという、新たな粒度のビューを解き放つ。
次に、これらのオブジェクトの違いを使用して、収入と地域をまたいだモデルの脆弱性を特定します。
- 参考スコア(独自算出の注目度): 8.408398153073096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite impressive advances in object-recognition, deep learning systems'
performance degrades significantly across geographies and lower income levels
raising pressing concerns of inequity. Addressing such performance gaps remains
a challenge, as little is understood about why performance degrades across
incomes or geographies. We take a step in this direction by annotating images
from Dollar Street, a popular benchmark of geographically and economically
diverse images, labeling each image with factors such as color, shape, and
background. These annotations unlock a new granular view into how objects
differ across incomes and regions. We then use these object differences to
pinpoint model vulnerabilities across incomes and regions. We study a range of
modern vision models, finding that performance disparities are most associated
with differences in texture, occlusion, and images with darker lighting. We
illustrate how insights from our factor labels can surface mitigations to
improve models' performance disparities. As an example, we show that mitigating
a model's vulnerability to texture can improve performance on the lower income
level. We release all the factor annotations along with an interactive
dashboard to facilitate research into more equitable vision systems.
- Abstract(参考訳): 物体認識の進歩にもかかわらず、深層学習システムのパフォーマンスは地理的に著しく低下し、低所得層は不平等に対する懸念を高めている。
このようなパフォーマンスギャップに対処することは、収入や地理的にパフォーマンスが劣化する理由についてはほとんど理解されていないため、依然として課題である。
地理的および経済的に多様な画像の人気のあるベンチマークである dollar street の画像に、色、形状、背景などの要素をラベル付けすることで、この方向への一歩を踏み出します。
これらのアノテーションは、収入と地域間でオブジェクトがどのように異なるかという、新しい粒度の視点を解き放ちます。
次に、これらのオブジェクトの違いを使って、収入と地域にわたるモデルの脆弱性を特定します。
現代の視覚モデルについて検討し, テクスチャ, 咬合, および暗い照明のイメージの違いにパフォーマンスの差が最も関係していることを見いだした。
当社のファクタラベルからの洞察がモデルのパフォーマンス格差を改善するための緩和策を浮き彫りにする方法について説明します。
例えば、モデルの脆弱性をテクスチャに緩和することで、低所得レベルのパフォーマンスが向上することを示す。
我々は、より公平な視覚システムの研究を容易にするために、インタラクティブなダッシュボードとともに、すべてのファクタアノテーションをリリースする。
関連論文リスト
- Bridging the Digital Divide: Performance Variation across Socio-Economic
Factors in Vision-Language Models [31.868468221653025]
異なる収入値に関連付けられた世帯画像を含むジオディバースデータセット上での視覚言語モデル(CLIP)の性能を評価する。
以上の結果から,貧しいグループに対するパフォーマンスは,様々なトピックや国における富裕層よりも一貫して低いことが示唆された。
論文 参考訳(メタデータ) (2023-11-09T21:10:52Z) - Mitigating Bias: Enhancing Image Classification by Improving Model
Explanations [9.791305104409057]
ディープラーニングモデルは、画像の背景にあるシンプルで容易に識別できる特徴に大きく依存する傾向がある。
モデルに十分な注意を前景に割り当てるよう促すメカニズムを導入する。
本研究は,画像内の主概念の理解と表現を高める上で,前景の注意が重要であることを明らかにする。
論文 参考訳(メタデータ) (2023-07-04T04:46:44Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - Towards Reliable Assessments of Demographic Disparities in Multi-Label
Image Classifiers [11.973749734226852]
マルチラベル画像分類と,特に対象分類タスクについて検討する。
測定のための設計選択とトレードオフは、以前のコンピュータビジョン文学で議論されたよりもニュアンスが高い。
実装の詳細にだけ似ているが、評価の結論に大きな影響を及ぼすいくつかの設計選択を特定します。
論文 参考訳(メタデータ) (2023-02-16T20:34:54Z) - Fair contrastive pre-training for geographic image segmentation [31.576447346533225]
選択したセンシティブなグループ間で大きな性能差を示す学習表現を示す。
この問題に対処するために、対照的な学習を伴う公平な密度の表現を提案する。
この方法は、ダウンストリームタスクの公平性を向上し、最先端の手法より優れる。
論文 参考訳(メタデータ) (2022-11-16T04:59:46Z) - Perceptual Grouping in Contrastive Vision-Language Models [59.1542019031645]
画像内の物体の位置を視覚言語モデルで理解し,画像の視覚的関連部分をグループ化する方法について述べる。
本稿では,意味情報と空間情報の両方を一意に学習するモデルとして,最小限の修正を提案する。
論文 参考訳(メタデータ) (2022-10-18T17:01:35Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Intriguing Properties of Contrastive Losses [12.953112189125411]
コントラスト学習の3つの興味深い特性について検討する。
複数のオブジェクトが存在する画像に対して、インスタンスベースのコントラスト学習がうまく学習できるかどうかを検討する。
対照的な学習では、学習しやすい共有機能のいくつかは、競合する機能の集合の学習を抑え、さらに完全に阻止することができる。
論文 参考訳(メタデータ) (2020-11-05T13:19:48Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Real-world Person Re-Identification via Degradation Invariance Learning [111.86722193694462]
現実のシナリオにおける人物再識別(Re-ID)は通常、低解像度、弱い照明、ぼやけ、悪天候などの様々な劣化要因に悩まされる。
本稿では,現実世界のRe-IDを対象とした劣化不変学習フレームワークを提案する。
自己教師付き不整合表現学習戦略を導入することにより,個人性に関連する頑健な特徴を同時に抽出することができる。
論文 参考訳(メタデータ) (2020-04-10T07:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。