論文の概要: Measuring machine learning harms from stereotypes: requires
understanding who is being harmed by which errors in what ways
- arxiv url: http://arxiv.org/abs/2402.04420v1
- Date: Tue, 6 Feb 2024 21:39:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 17:45:04.639591
- Title: Measuring machine learning harms from stereotypes: requires
understanding who is being harmed by which errors in what ways
- Title(参考訳): 機械学習の測定はステレオタイプから損なう--どのエラーがどのような方法で損なわれているのかを理解する必要がある
- Authors: Angelina Wang and Xuechunzi Bai and Solon Barocas and Su Lin Blodgett
- Abstract要約: 画像検索におけるジェンダーステレオタイプのケーススタディを用いて、機械学習の誤りに対して人々がどのように反応するかを調べる。
ステレオタイプ強化エラーは、認知的信念、態度、行動に対する最小限の変化を持ちながら、より経験的な(主観的な)有害な経験をもたらす。
あるステレオタイプに違反するエラーは、男性にとって経験的に有害である。
- 参考スコア(独自算出の注目度): 14.402966408636873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning applications proliferate, we need an understanding of
their potential for harm. However, current fairness metrics are rarely grounded
in human psychological experiences of harm. Drawing on the social psychology of
stereotypes, we use a case study of gender stereotypes in image search to
examine how people react to machine learning errors. First, we use survey
studies to show that not all machine learning errors reflect stereotypes nor
are equally harmful. Then, in experimental studies we randomly expose
participants to stereotype-reinforcing, -violating, and -neutral machine
learning errors. We find stereotype-reinforcing errors induce more
experientially (i.e., subjectively) harmful experiences, while having minimal
changes to cognitive beliefs, attitudes, or behaviors. This experiential harm
impacts women more than men. However, certain stereotype-violating errors are
more experientially harmful for men, potentially due to perceived threats to
masculinity. We conclude that harm cannot be the sole guide in fairness
mitigation, and propose a nuanced perspective depending on who is experiencing
what harm and why.
- Abstract(参考訳): 機械学習のアプリケーションが普及するにつれて、その危険性を理解する必要がある。
しかし、現在の公正度測定基準は人間の心理的な害経験にはほとんど根ざしていない。
ステレオタイプの社会心理学を題材として,画像検索におけるジェンダーステレオタイプの事例研究を行い,機械学習の誤りに対する反応について検討した。
まず、すべての機械学習エラーがステレオタイプを反映しているか、等しく有害であるかを示すために、調査研究を使用する。
実験では、被験者にステレオタイプ強化、違反、ニュートラルな機械学習エラーをランダムに暴露する。
ステレオタイプ強化エラーは、認知的信念、態度、行動に対する最小限の変化を持ちながら、より経験的な(主観的な)有害な経験をもたらす。
この経験的な害は男性よりも女性に影響を及ぼす。
しかし、ある種のステレオタイプに違反するエラーは、男性にとってより実験的に有害である。
我々は、公正な緩和において害は唯一のガイドにはならないと結論し、誰が害と理由を経験しているかによって、ニュアンスな視点を提案する。
関連論文リスト
- Challenging Negative Gender Stereotypes: A Study on the Effectiveness of Automated Counter-Stereotypes [12.704072523930444]
本研究では,オンラインコミュニケーションにおいて,ジェンダーのステレオタイプに自動的に対抗し,挑戦する11の戦略について検討する。
我々は、AIによるジェンダーベースのカウンターステレオタイプを参加者に提示し、攻撃性、妥当性、そして潜在的有効性を評価するよう依頼する。
論文 参考訳(メタデータ) (2024-04-18T01:48:28Z) - Quantifying Stereotypes in Language [6.697298321551588]
データセットをアノテートすることで,言語におけるステレオタイプを定量化する。
我々は、プレトレーニング言語モデル(PLM)を用いて、このデータセットを学習し、文のステレオタイプを予測する。
我々は、ヘイトスピーチ、性差別、感情、不利で有利なグループなど、一般的な社会問題に関するステレオタイプについて議論する。
論文 参考訳(メタデータ) (2024-01-28T01:07:21Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Understanding and Countering Stereotypes: A Computational Approach to
the Stereotype Content Model [4.916009028580767]
ステレオタイプコンテンツモデル(SCM)を用いてテキスト中のステレオタイプを解釈する計算手法を提案する。
SCMは、ステレオタイプは温かさと能力の2つの主要な次元に沿って理解することができると提案している。
反ステレオタイプ的な例によるステレオタイプに対抗することは、偏見的思考を減らす最も効果的な方法の1つであることが知られている。
論文 参考訳(メタデータ) (2021-06-04T16:53:37Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z) - Towards Socially Responsible AI: Cognitive Bias-Aware Multi-Objective
Learning [24.522730093209262]
人類社会は、社会的偏見や大量不正につながる認知バイアスに悩まされた長い歴史を持っていた。
偏見を考慮した多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-14T17:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。