論文の概要: Uncovering Implicit Gender Bias in Narratives through Commonsense
Inference
- arxiv url: http://arxiv.org/abs/2109.06437v1
- Date: Tue, 14 Sep 2021 04:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:42:31.699623
- Title: Uncovering Implicit Gender Bias in Narratives through Commonsense
Inference
- Title(参考訳): コモンセンス推論による物語におけるインシシティジェンダーバイアスの発見
- Authors: Tenghao Huang, Faeze Brahman, Vered Shwartz, Snigdha Chaturvedi
- Abstract要約: モデル生成物語における主人公に関連する性別バイアスについて検討する。
暗黙のバイアスに注目し、コモンセンス推論エンジンを使ってそれらを明らかにする。
- 参考スコア(独自算出の注目度): 21.18458377708873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained language models learn socially harmful biases from their training
corpora, and may repeat these biases when used for generation. We study gender
biases associated with the protagonist in model-generated stories. Such biases
may be expressed either explicitly ("women can't park") or implicitly (e.g. an
unsolicited male character guides her into a parking space). We focus on
implicit biases, and use a commonsense reasoning engine to uncover them.
Specifically, we infer and analyze the protagonist's motivations, attributes,
mental states, and implications on others. Our findings regarding implicit
biases are in line with prior work that studied explicit biases, for example
showing that female characters' portrayal is centered around appearance, while
male figures' focus on intellect.
- Abstract(参考訳): 事前訓練された言語モデルは、トレーニングコーパスから社会的に有害なバイアスを学習し、世代に使用するときにこれらのバイアスを繰り返す。
モデル生成物語における主人公に関連する性別バイアスについて検討する。
このようなバイアスは明示的に表現される("women can't park")か、暗黙的に表現される(例えば、未熟な男性キャラクターは彼女を駐車スペースに誘導する)。
暗黙のバイアスに注目し、コモンセンス推論エンジンを使ってそれらを明らかにする。
具体的には、主人公の動機、属性、精神状態、他者への影響を推測し分析する。
例えば、女性キャラクターの描写は外見に集中しており、男性の人物は知性に焦点を当てていることを示している。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Are Models Biased on Text without Gender-related Language? [14.931375031931386]
ステレオタイプフリーシナリオにおけるジェンダーバイアスを調査するための新しいフレームワークUnStereoEval(USE)を紹介する。
USEは事前学習データ統計に基づいて文レベルスコアを定義し、その文が単語と性別の関連が最小限であるかどうかを判定する。
28の試験モデルにおいて、偏見が低いことは、偏見が単にジェンダー関連の単語の存在に由来するものではないことを示唆している。
論文 参考訳(メタデータ) (2024-05-01T15:51:15Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Politeness Stereotypes and Attack Vectors: Gender Stereotypes in
Japanese and Korean Language Models [1.5039745292757671]
本研究では,日本語モデルと韓国語モデルにおいて,丁寧度レベルに関連する文法的性別バイアスがどのように現れるかを検討する。
口頭弁論は女性の文法的ジェンダーを最も表すが, 失礼な言論とフォーマルな言論は男性文法的ジェンダーを最も表す。
サイバーいじめ検出モデルにおいて、丁寧度レベルが性別偏差のアタックベクターであることが判明した。
論文 参考訳(メタデータ) (2023-06-16T10:36:18Z) - Are Fairy Tales Fair? Analyzing Gender Bias in Temporal Narrative Event
Chains of Children's Fairy Tales [46.65377334112404]
社会的バイアスやステレオタイプは、私たちの物語における彼らの存在を通じて、私たちの文化に埋め込まれています。
そこで本稿では,各キャラクタに対して,物語の時間的動詞に基づくイベントチェーンを自動的に抽出する計算パイプラインを提案する。
また、従来のステレオタイプと整合するカテゴリを含むことで、バイアス分析を容易にする動詞ベースのイベントアノテーションスキームを提案する。
論文 参考訳(メタデータ) (2023-05-26T05:29:37Z) - Model-Agnostic Gender Debiased Image Captioning [29.640940966944697]
イメージキャプションモデルは、トレーニングセットにおける有害な社会的バイアスを永続化し、増幅することが知られている。
我々は、合成バイアスされたサンプルから学習し、両方のバイアスを減少させるLIBRAというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:30:49Z) - A Moral- and Event- Centric Inspection of Gender Bias in Fairy Tales at
A Large Scale [50.92540580640479]
7つの文化から得られた624個の妖精物語を含む妖精物語データセットにおいて,ジェンダーバイアスを計算的に解析した。
その結果,男性キャラクターの数は女性キャラクターの2倍であり,男女表現が不均等であることが判明した。
女性キャラクターは、注意、忠誠、尊厳に関する道徳的な言葉とより関連しているのに対し、男性キャラクターは、公正、権威に関する道徳的な単語とより関連している。
論文 参考訳(メタデータ) (2022-11-25T19:38:09Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Unsupervised Discovery of Implicit Gender Bias [38.59057512390926]
我々は、女性に対する性的偏見をコメントレベルで識別するために、教師なしのアプローチをとる。
主な課題は、データ内の他のアーティファクトではなく、暗黙のバイアスの兆候にモデルを集中させることです。
論文 参考訳(メタデータ) (2020-04-17T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。