論文の概要: Hollywood Identity Bias Dataset: A Context Oriented Bias Analysis of
Movie Dialogues
- arxiv url: http://arxiv.org/abs/2205.15951v1
- Date: Tue, 31 May 2022 16:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:48:16.943588
- Title: Hollywood Identity Bias Dataset: A Context Oriented Bias Analysis of
Movie Dialogues
- Title(参考訳): Hollywood Identity Bias Dataset: 映画対話のコンテキスト指向バイアス分析
- Authors: Sandhya Singh, Prapti Roy, Nihar Sahoo, Niteesh Mallela, Himanshu
Gupta, Pushpak Bhattacharyya, Milind Savagaonkar, Nidhi, Roshni Ramnani,
Anutosh Maitra, Shubhashis Sengupta
- Abstract要約: 映画に登場する社会的偏見やステレオタイプは、リーチによって大きなダメージを与える可能性がある。
同一性バイアスに注釈を付けた映画脚本のデータセットを新たに導入する。
データセットには、(i) バイアスラベルに、性別、人種/民族、宗教、年齢、職業、LGBTQ、その他の7つのカテゴリのダイアログがアノテートされている。
- 参考スコア(独自算出の注目度): 20.222820874864748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Movies reflect society and also hold power to transform opinions. Social
biases and stereotypes present in movies can cause extensive damage due to
their reach. These biases are not always found to be the need of storyline but
can creep in as the author's bias. Movie production houses would prefer to
ascertain that the bias present in a script is the story's demand. Today, when
deep learning models can give human-level accuracy in multiple tasks, having an
AI solution to identify the biases present in the script at the writing stage
can help them avoid the inconvenience of stalled release, lawsuits, etc. Since
AI solutions are data intensive and there exists no domain specific data to
address the problem of biases in scripts, we introduce a new dataset of movie
scripts that are annotated for identity bias. The dataset contains dialogue
turns annotated for (i) bias labels for seven categories, viz., gender,
race/ethnicity, religion, age, occupation, LGBTQ, and other, which contains
biases like body shaming, personality bias, etc. (ii) labels for sensitivity,
stereotype, sentiment, emotion, emotion intensity, (iii) all labels annotated
with context awareness, (iv) target groups and reason for bias labels and (v)
expert-driven group-validation process for high quality annotations. We also
report various baseline performances for bias identification and category
detection on our dataset.
- Abstract(参考訳): 映画は社会を反映し、意見を変える力を持っている。
映画に現れる社会的バイアスやステレオタイプは、そのリーチによって広範囲にダメージを与える可能性がある。
これらのバイアスが必ずしもストーリーラインの必要性であるとは限らないが、著者のバイアスとして忍び寄ることがある。
映画のプロダクションハウスは、脚本にある偏見が物語の要求であることを確認することを好んでいる。
今日では、ディープラーニングモデルが複数のタスクにおいて人間レベルの精度を提供できる場合、執筆段階でスクリプトに存在するバイアスを特定するAIソリューションを持つことで、リリースの停滞や訴訟などの不便さを回避することができる。
AIソリューションはデータ集約型であり、スクリプトのバイアス問題に対処するドメイン固有のデータはないため、IDバイアスに注釈を付けた新しい映画のスクリプトデータセットを導入する。
データセットには注釈付きの対話ターンが含まれています
i) 性別、人種・民族性、宗教、年齢、職業、LGBTQなどの7つのカテゴリーのバイアスラベル。
(ii)感受性、ステレオタイプ、感情、感情、感情の強さのラベル
(三)文脈認識を付したすべてのラベル
(iv)バイアスラベルのターゲットグループと理由
(v) 高品質なアノテーションのためのエキスパート主導のグループ検証プロセス。
また、バイアス識別とカテゴリ検出のための様々なベースライン性能をデータセット上で報告する。
関連論文リスト
- Intertwined Biases Across Social Media Spheres: Unpacking Correlations in Media Bias Dimensions [12.588239777597847]
メディアバイアスは、ステレオタイプを強化し、社会的分裂を悪化させることによって、公共の認知を著しく形作る。
われわれは過去5年間にYouTubeとRedditから収集された新しいデータセットを紹介した。
私たちのデータセットには、幅広いバイアス次元にわたるYouTubeコンテンツの自動アノテーションが含まれています。
論文 参考訳(メタデータ) (2024-08-27T21:03:42Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - ''Fifty Shades of Bias'': Normative Ratings of Gender Bias in GPT
Generated English Text [11.085070600065801]
言語は、社会的信念システムの顕在化のための強力なツールとして機能する。
ジェンダーバイアスは、私たちの社会でもっとも普及しているバイアスの1つです。
我々は、GPT生成した英語テキストの最初のデータセットを作成し、男女バイアスの規範的評価を行う。
論文 参考訳(メタデータ) (2023-10-26T14:34:06Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Detecting Unintended Social Bias in Toxic Language Datasets [32.724030288421474]
本稿では,既存のKaggleコンペティションのデータセットであるJigsaw Unintended Bias in Toxicity Classificationから算出した新しいデータセットであるToxicBiasを紹介する。
データセットには、5つの異なるバイアスカテゴリ、viz.、性、人種/民族性、宗教、政治的、LGBTQに注釈付けされたインスタンスが含まれている。
得られたデータセットを用いてトランスフォーマーベースモデルをトレーニングし、バイアス識別、ターゲット生成、バイアス含意に関するベースライン性能を報告する。
論文 参考訳(メタデータ) (2022-10-21T06:50:12Z) - Neural Media Bias Detection Using Distant Supervision With BABE -- Bias
Annotations By Experts [24.51774048437496]
本稿ではメディアバイアス研究のための頑健で多様なデータセットであるBABEについて述べる。
トピックとアウトレットの間でバランスが取れた3,700の文で構成されており、単語と文のレベルにメディアバイアスラベルが含まれている。
また,本データに基づいて,ニュース記事中のバイアス文を自動的に検出する手法も導入した。
論文 参考訳(メタデータ) (2022-09-29T05:32:55Z) - PowerTransformer: Unsupervised Controllable Revision for Biased Language
Correction [62.46299488465803]
文字表現における暗黙的かつ潜在的に望ましくないバイアスを修正するために、与えられたテキストを書き換えることを目的とした新しいリビジョンタスクを定式化する。
本稿では,意味フレームのレンズを通してテキストを除去する手法としてPowerTransformerを紹介する。
提案手法は, 関連するタスクから, アブレーションや既存メソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T18:05:48Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Detection and Mitigation of Bias in Ted Talk Ratings [3.3598755777055374]
入射バイアスは行動条件であり、特定のグループのメンバーに所定の特性を付与する。
本稿では、社会的・職業的なパフォーマンスを評価する多様なソーシャルプラットフォームであるTEDTalksの視聴者評価における暗黙のバイアスを定量化する。
論文 参考訳(メタデータ) (2020-03-02T06:13:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。