論文の概要: VEAT Quantifies Implicit Associations in Text-to-Video Generator Sora and Reveals Challenges in Bias Mitigation
- arxiv url: http://arxiv.org/abs/2601.00996v1
- Date: Fri, 02 Jan 2026 22:38:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.929667
- Title: VEAT Quantifies Implicit Associations in Text-to-Video Generator Sora and Reveals Challenges in Bias Mitigation
- Title(参考訳): VEATはテキスト・ビデオ・ジェネレータ・ソラにおけるインプシット・アソシエーションの定量化とバイアス低減の課題
- Authors: Yongxu Sun, Michael Saxon, Ian Yang, Anna-Maria Gueorguieva, Aylin Caliskan,
- Abstract要約: Soraのようなテキスト・トゥ・ビデオ(T2V)ジェネレータは、生成されたコンテンツが社会的バイアスを反映するかどうかを懸念する。
我々は,VEAT(Video Embedding Association Test)とVEAT(Single-Category VEAT)を導入して,単語や画像からビデオへの埋め込み関連テストを拡張した。
- 参考スコア(独自算出の注目度): 16.36440077667675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-Video (T2V) generators such as Sora raise concerns about whether generated content reflects societal bias. We extend embedding-association tests from words and images to video by introducing the Video Embedding Association Test (VEAT) and Single-Category VEAT (SC-VEAT). We validate these methods by reproducing the direction and magnitude of associations from widely used baselines, including Implicit Association Test (IAT) scenarios and OASIS image categories. We then quantify race (African American vs. European American) and gender (women vs. men) associations with valence (pleasant vs. unpleasant) across 17 occupations and 7 awards. Sora videos associate European Americans and women more with pleasantness (both d>0.8). Effect sizes correlate with real-world demographic distributions: percent men and White in occupations (r=0.93, r=0.83) and percent male and non-Black among award recipients (r=0.88, r=0.99). Applying explicit debiasing prompts generally reduces effect-size magnitudes, but can backfire: two Black-associated occupations (janitor, postal service) become more Black-associated after debiasing. Together, these results reveal that easily accessible T2V generators can actually amplify representational harms if not rigorously evaluated and responsibly deployed.
- Abstract(参考訳): Soraのようなテキスト・トゥ・ビデオ(T2V)ジェネレータは、生成されたコンテンツが社会的バイアスを反映するかどうかを懸念する。
ビデオ埋め込みアソシエーションテスト (VEAT) とシングルカテゴリVEAT (SC-VEAT) を導入することで, 単語や画像からの埋め込み関連試験をビデオに拡張する。
我々は,IAT(Implicit Association Test)シナリオやOASIS画像カテゴリなど,広く使用されているベースラインからの関連性の方向と大きさを再現することにより,これらの手法を検証する。
次に、人種(アフリカ系アメリカ人対ヨーロッパ系アメリカ人)とジェンダー(女性対男性)を、17の職業と7つの賞で有病率(不快対不快)で定量化する。
Soraのビデオは、ヨーロッパ系アメリカ人と女性をより快適に関連付けている(d>0.8)。
実世界の人口分布には、職業における男性と白人の比率(r=0.93, r=0.83)、受賞者のうち男性と非黒人の比率(r=0.88, r=0.99)がある。
明示的な嫌悪行為を施すことは、一般的に効果の大きさを減少させるが、2つの黒関連職業(管理職、郵便業)は、嫌悪後により黒関連になる。
これらの結果から、容易にアクセス可能なT2Vジェネレータは、厳密に評価され、責任を負うことなく、実際に表現上の害を増幅できることが明らかとなった。
関連論文リスト
- Reinforcing Stereotypes of Anger: Emotion AI on African American Vernacular English [46.47177439553625]
本研究は、一般アメリカ英語(GAE)と比較して、アフリカ系アメリカ人言語英語(AAVE)における感情認識モデルの性能について検討する。
ロサンゼルスでは270万のツイートがジオタグ付けされている。
アフリカ系アメリカ人の住民の割合が高い地区は怒りの予測が大きくなることが観察された。
論文 参考訳(メタデータ) (2025-11-13T23:13:08Z) - Adultification Bias in LLMs and Text-to-Image Models [55.02903075972816]
若い女性の人種やジェンダーの軸に沿った偏見について研究する。
我々は「文化バイアス」に焦点を当てており、黒人の女の子は白人の仲間よりも、より排他的で、性的に親密で、教育可能であると推定される現象である。
論文 参考訳(メタデータ) (2025-06-08T21:02:33Z) - Visual Cues of Gender and Race are Associated with Stereotyping in Vision-Language Models [0.2812395851874055]
プロトタイプ性が異なる標準化された顔画像を用いて、4つの視覚言語モデルを用いて、オープンエンドコンテキストにおける特徴関連と均質性バイアスの両方を検査する。
VLMは男性に比べて一貫して女性向けの均一なストーリーを生成しており、外見がより独特な人はより均一に表現される。
特徴的関連性については、ステレオタイピングと黒人が全てのモデルで一貫してバスケットボールと結びついているという限られた証拠が得られ、他の人種的関連性(芸術、医療、外見など)は特定のVLMによって異なる。
論文 参考訳(メタデータ) (2025-03-07T02:25:16Z) - Gender Bias in Text-to-Video Generation Models: A case study of Sora [63.064204206220936]
本研究では,OpenAIのテキスト・ビデオ生成モデルであるSoraにおけるジェンダーバイアスの存在について検討した。
性別ニュートラルとステレオタイププロンプトの多種多様なセットから生成されたビデオを分析し、バイアスの有意な証拠を明らかにした。
論文 参考訳(メタデータ) (2024-12-30T18:08:13Z) - BiasDora: Exploring Hidden Biased Associations in Vision-Language Models [23.329280888159744]
9つのバイアス次元にまたがる隠された暗黙の関連について検討した。
相関関係が負性,毒性,極度にどのように変化するかを示す。
私たちの研究は、既存の方法論では認識されない微妙で極端なバイアスを特定します。
論文 参考訳(メタデータ) (2024-07-02T08:55:40Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。