論文の概要: Digital Divides in Scene Recognition: Uncovering Socioeconomic Biases in
Deep Learning Systems
- arxiv url: http://arxiv.org/abs/2401.13097v1
- Date: Tue, 23 Jan 2024 21:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 16:20:02.993631
- Title: Digital Divides in Scene Recognition: Uncovering Socioeconomic Biases in
Deep Learning Systems
- Title(参考訳): シーン認識におけるデジタル分割:深層学習システムにおける社会経済バイアスを明らかにする
- Authors: Michelle R. Greene, Mariam Josyula, Wentao Si and Jennifer A. Hart
- Abstract要約: シーン分類における深部畳み込みニューラルネットワーク(dCNN)のバイアスについて検討する。
私たちは、ユーザー投稿のホーム写真やAirbnbのリスティングなど、グローバルおよび米国のソースから100万近い画像を使用します。
分析の結果,事前訓練したdCNNでは分類精度が低く,分類信頼性が低く,攻撃的なラベルを割り当てる傾向が高かった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer-based scene understanding has influenced fields ranging from urban
planning to autonomous vehicle performance, yet little is known about how well
these technologies work across social differences. We investigate the biases of
deep convolutional neural networks (dCNNs) in scene classification, using
nearly one million images from global and US sources, including user-submitted
home photographs and Airbnb listings. We applied statistical models to quantify
the impact of socioeconomic indicators such as family income, Human Development
Index (HDI), and demographic factors from public data sources (CIA and US
Census) on dCNN performance. Our analyses revealed significant socioeconomic
bias, where pretrained dCNNs demonstrated lower classification accuracy, lower
classification confidence, and a higher tendency to assign labels that could be
offensive when applied to homes (e.g., "ruin", "slum"), especially in images
from homes with lower socioeconomic status (SES). This trend is consistent
across two datasets of international images and within the diverse economic and
racial landscapes of the United States. This research contributes to
understanding biases in computer vision, emphasizing the need for more
inclusive and representative training datasets. By mitigating the bias in the
computer vision pipelines, we can ensure fairer and more equitable outcomes for
applied computer vision, including home valuation and smart home security
systems. There is urgency in addressing these biases, which can significantly
impact critical decisions in urban development and resource allocation. Our
findings also motivate the development of AI systems that better understand and
serve diverse communities, moving towards technology that equitably benefits
all sectors of society.
- Abstract(参考訳): コンピュータによるシーン理解は、都市計画から自動運転車のパフォーマンスに至るまで、様々な分野に影響を与えてきたが、これらの技術が社会的な違いを越えてどのように機能するかは、ほとんど分かっていない。
我々は,世界および米国の情報ソースから得られた100万近い画像を用いて,シーン分類における深層畳み込みニューラルネットワーク(dcnn)のバイアスを調査した。
我々は,社会経済指標(家族所得,人間開発指数(hdi),公的データ源(cia,米国国勢調査)の人口統計学的要因がdcnnに与える影響を定量化するために,統計モデルを適用した。
分析の結果,事前学習したdCNNでは分類精度が低下し,分類信頼度が低下し,特に社会経済的地位の低い家庭(SES)のイメージにおいて,家庭に適用した場合に攻撃的となるラベルを割り当てる傾向が見られた。
この傾向は、国際画像の2つのデータセットと、アメリカ合衆国の様々な経済的、人種的景観の中で一致している。
この研究はコンピュータビジョンにおけるバイアスの理解に寄与し、より包括的で代表的なトレーニングデータセットの必要性を強調している。
コンピュータビジョンパイプラインのバイアスを軽減することで、ホームバリュエーションやスマートホームセキュリティシステムなど、応用されたコンピュータビジョンの公正で公平な結果を保証することができます。
これらのバイアスに対処するには緊急性があり、都市開発と資源配分の重要な決定に大きな影響を与える可能性がある。
我々の発見はまた、多様なコミュニティをよりよく理解し、役立てるAIシステムの開発を動機付け、社会のあらゆる分野に等しく利益をもたらす技術へと向かわせる。
関連論文リスト
- Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - The Emerging AI Divide in the United States [2.0359927301080116]
本研究では,米国住民の新たな生成型AIツールChatGPTに関する知識の空間的差異を特徴づける。
西海岸州ではChatGPTを検索するユーザが最も多く、アパラチア州や湾岸州では検索率が継続的に低い。
生成的AI技術は斬新なものだが、初期の取り込みの違いは、デジタルの限界化の慣れ親しんだ道を辿っているように見える。
論文 参考訳(メタデータ) (2024-04-18T08:33:35Z) - Evaluating Machine Perception of Indigeneity: An Analysis of ChatGPT's
Perceptions of Indigenous Roles in Diverse Scenarios [0.0]
この研究は、テクノロジが社会コンピューティングにおける不均一性に関連する社会的バイアスをどのように知覚し、潜在的に増幅するかについて、ユニークな視点を提供する。
この発見は、臨界コンピューティングにおける不均一性の広範な意味に関する洞察を与える。
論文 参考訳(メタデータ) (2023-10-13T16:46:23Z) - Granularity at Scale: Estimating Neighborhood Socioeconomic Indicators
from High-Resolution Orthographic Imagery and Hybrid Learning [1.8369448205408005]
オーバーヘッド画像は、コミュニティ情報が不足しているギャップを埋めるのに役立つ。
機械学習とコンピュータビジョンの最近の進歩により、画像データのパターンから素早く特徴を抽出し、検出することが可能になった。
本研究では, 人口密度, 中央値世帯所得, 教育達成率の2つのアプローチ, 教師付き畳み込みニューラルネットワークと半教師付きクラスタリングについて検討する。
論文 参考訳(メタデータ) (2023-09-28T19:30:26Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Investigating Participation Mechanisms in EU Code Week [68.8204255655161]
デジタル・コンピテンス(デジタル・コンピテンス、Digital competence、DC)は、デジタル技術の信頼性、批判、利用のための幅広いスキル、態度、知識のセットである。
この写本の目的は、コード・ウィークのEU加盟国への参加に関する詳細な統計学的記述を提供することである。
論文 参考訳(メタデータ) (2022-05-29T19:16:03Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。