論文の概要: Measuring Social Biases in Grounded Vision and Language Embeddings
- arxiv url: http://arxiv.org/abs/2002.08911v2
- Date: Mon, 21 Aug 2023 19:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 21:37:28.391847
- Title: Measuring Social Biases in Grounded Vision and Language Embeddings
- Title(参考訳): 接地視覚と言語埋め込みにおける社会的バイアスの測定
- Authors: Candace Ross, Boris Katz, Andrei Barbu
- Abstract要約: 社会的バイアスの概念を言語埋め込みから接地型視覚と言語埋め込みへと一般化する。
一般化の空間(Grounded-WEAT と Grounded-SEAT )を導入し、3つの一般化がバイアス、言語、視覚の相互作用について異なるが重要な疑問に答えることを示した。
これらのメトリクスは、COCO、Conceptual Captions、Google Imagesの10,228イメージで、標準言語バイアスベンチマークを拡張して作成した、グラウンドドバイアスの最初のデータセットである、新しいデータセットで使用される。
- 参考スコア(独自算出の注目度): 18.564346969868875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We generalize the notion of social biases from language embeddings to
grounded vision and language embeddings. Biases are present in grounded
embeddings, and indeed seem to be equally or more significant than for
ungrounded embeddings. This is despite the fact that vision and language can
suffer from different biases, which one might hope could attenuate the biases
in both. Multiple ways exist to generalize metrics measuring bias in word
embeddings to this new setting. We introduce the space of generalizations
(Grounded-WEAT and Grounded-SEAT) and demonstrate that three generalizations
answer different yet important questions about how biases, language, and vision
interact. These metrics are used on a new dataset, the first for grounded bias,
created by augmenting extending standard linguistic bias benchmarks with 10,228
images from COCO, Conceptual Captions, and Google Images. Dataset construction
is challenging because vision datasets are themselves very biased. The presence
of these biases in systems will begin to have real-world consequences as they
are deployed, making carefully measuring bias and then mitigating it critical
to building a fair society.
- Abstract(参考訳): 社会バイアスの概念を言語埋め込みから基底ビジョンや言語埋め込みへと一般化する。
バイアスは接地埋め込みに存在するが、実際は接地埋め込みと同等かそれ以上に重要であるようである。
これは、視覚と言語が異なるバイアスに悩まされるという事実にもかかわらず、両者のバイアスを弱めることを期待しているかもしれない。
単語埋め込みにおけるバイアスを測定するメトリクスをこの新しい設定に一般化する複数の方法が存在する。
一般化の空間(Grounded-WEAT と Grounded-SEAT )を導入し、3つの一般化がバイアス、言語、視覚の相互作用について異なるが重要な疑問に答えることを示した。
これらのメトリクスは、COCO、Conceptual Captions、Google Imagesの10,228のイメージで、標準言語バイアスベンチマークを拡張して作成した、グラウンドドバイアスの最初のデータセットである、新しいデータセットで使用される。
ビジョンデータセット自体が偏っているため、データセットの構築は難しい。
システムにおけるこれらのバイアスの存在は、実際の結果をもたらし始め、バイアスを慎重に測定し、公正な社会を構築する上で重要なものとなる。
関連論文リスト
- Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - Global Voices, Local Biases: Socio-Cultural Prejudices across Languages [22.92083941222383]
人間の偏見はユビキタスであるが、一様ではない。言語、文化、社会的境界を越えて格差が存在する。
本研究では,Word Embedding Association Test (WEAT) を24言語に拡張し,より広範な研究を可能にする。
より広く普及している社会的バイアスを包含するために、毒性、能力主義などにわたる新しいバイアス次元について検討する。
論文 参考訳(メタデータ) (2023-10-26T17:07:50Z) - ''Fifty Shades of Bias'': Normative Ratings of Gender Bias in GPT
Generated English Text [11.085070600065801]
言語は、社会的信念システムの顕在化のための強力なツールとして機能する。
ジェンダーバイアスは、私たちの社会でもっとも普及しているバイアスの1つです。
我々は、GPT生成した英語テキストの最初のデータセットを作成し、男女バイアスの規範的評価を行う。
論文 参考訳(メタデータ) (2023-10-26T14:34:06Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - The Tail Wagging the Dog: Dataset Construction Biases of Social Bias
Benchmarks [75.58692290694452]
社会的偏見と、データセット構築時に選択された選択から生じる非社会的偏見を比較し、人間の目では識別できないかもしれない。
これらの浅い修正は、様々なモデルにまたがるバイアスの程度に驚くべき影響を及ぼす。
論文 参考訳(メタデータ) (2022-10-18T17:58:39Z) - Differential Bias: On the Perceptibility of Stance Imbalance in
Argumentation [35.2494622378896]
絶対バイアス分類”が有望な目標かどうかを問う。
偏見のない文章と偏見のないテキストが主観的であるかどうかを判定する。
この種のバイアスモデルの前提条件は、人間がそもそも相対的なバイアスの差を知覚する能力である。
論文 参考訳(メタデータ) (2022-10-13T12:48:07Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Argument from Old Man's View: Assessing Social Bias in Argumentation [20.65183968971417]
言語における社会的バイアスは多くのNLPアプリケーションに倫理的影響をもたらす。
最近の研究では、各データに基づいてトレーニングされた機械学習モデルが採用されるだけでなく、バイアスを増幅する可能性があることが示されている。
大規模な英語討論ポータルにおける社会的偏見の存在について検討する。
論文 参考訳(メタデータ) (2020-11-24T10:39:44Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。