論文の概要: FAIRT2V: Training-Free Debiasing for Text-to-Video Diffusion Models
- arxiv url: http://arxiv.org/abs/2601.20791v1
- Date: Wed, 28 Jan 2026 17:29:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:07.080148
- Title: FAIRT2V: Training-Free Debiasing for Text-to-Video Diffusion Models
- Title(参考訳): FAIRT2V:テキスト・ビデオ拡散モデルのためのトレーニング不要なデバイアス
- Authors: Haonan Zhong, Wei Song, Tingxu Han, Maurice Pagnucco, Jingling Xue, Yang Song,
- Abstract要約: テキスト・ビデオ・ジェネレーションのためのトレーニング不要な脱バイアスフレームワークであるFairT2Vを提案する。
まず、T2Vモデルにおける人口統計バイアスを分析し、主に事前学習されたテキストエンコーダに由来することを示す。
我々は、この効果を、生成されたビデオのバイアスと相関するジェンダー学習スコアで定量化する。
- 参考スコア(独自算出の注目度): 20.319952004585616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-video (T2V) diffusion models have achieved rapid progress, yet their demographic biases, particularly gender bias, remain largely unexplored. We present FairT2V, a training-free debiasing framework for text-to-video generation that mitigates encoder-induced bias without finetuning. We first analyze demographic bias in T2V models and show that it primarily originates from pretrained text encoders, which encode implicit gender associations even for neutral prompts. We quantify this effect with a gender-leaning score that correlates with bias in generated videos. Based on this insight, FairT2V mitigates demographic bias by neutralizing prompt embeddings via anchor-based spherical geodesic transformations while preserving semantics. To maintain temporal coherence, we apply debiasing only during early identity-forming steps through a dynamic denoising schedule. We further propose a video-level fairness evaluation protocol combining VideoLLM-based reasoning with human verification. Experiments on the modern T2V model Open-Sora show that FairT2V substantially reduces demographic bias across occupations with minimal impact on video quality.
- Abstract(参考訳): テキスト・ツー・ビデオ(T2V)拡散モデルは急速に進歩しているが、その人口統計学的偏見、特に性別的偏見は未解明のままである。
FairT2Vは、エンコーダによるバイアスを微調整せずに軽減する、テキスト・ビデオ生成のためのトレーニング不要な脱バイアスフレームワークである。
まず、T2Vモデルにおける人口統計バイアスを分析し、それは主に、中立なプロンプトであっても暗黙の性関係を符号化する事前訓練されたテキストエンコーダに由来することを示す。
我々は、この効果を、生成されたビデオのバイアスと相関するジェンダー学習スコアで定量化する。
この知見に基づいて、FairT2Vは、セマンティクスを保ちながらアンカーベースの球面測地変換を介して、迅速な埋め込みを中和することで、人口統計バイアスを緩和する。
時間的コヒーレンスを維持するために、動的デノナイジングスケジュールを通じて、初期同一性形成段階においてのみデボアシングを適用する。
さらに,ビデオLLMに基づく推論と人間の検証を組み合わせた映像レベルの公平性評価プロトコルを提案する。
最新のT2VモデルOpen-Soraの実験では、FairT2Vはビデオ品質に最小限の影響を伴って、職業間の人口バイアスを大幅に低減している。
関連論文リスト
- From Preferences to Prejudice: The Role of Alignment Tuning in Shaping Social Bias in Video Diffusion Models [69.4332879415364]
本稿では,ビデオ生成における社会的表現を評価するためのフレームワークであるVideoBiasEvalを紹介する。
VideoBiasEvalでは、アクター属性からセマンティックコンテンツをアンタングルするために、イベントベースのプロンプト戦略を採用している。
我々は、人間の嗜好データセットにおけるバイアス、報酬モデルにおける増幅、アライメント調整されたビデオ拡散モデルによる伝播を結合する最初のエンドツーエンド分析を行う。
論文 参考訳(メタデータ) (2025-10-20T07:37:43Z) - Model-Agnostic Gender Bias Control for Text-to-Image Generation via Sparse Autoencoder [14.164976259534143]
テキスト・ツー・イメージ(T2I)拡散モデルでは、特に専門職と性的な対象のステレオタイプ的関連を生じることにより、性別バイアスが生じることが多い。
本稿では,T2I生成におけるそのようなバイアスを軽減するためのモデルに依存しないフレームワークであるSAE Debiasを提案する。
我々の知る限りでは、これはT2Iモデル内の性別バイアスを特定し、介入するためにスパースオートエンコーダを適用する最初の試みである。
論文 参考訳(メタデータ) (2025-07-28T16:36:13Z) - Implicit Bias Injection Attacks against Text-to-Image Diffusion Models [17.131167390657243]
偏りのあるT2Iモデルは特定の傾向のあるコンテンツを生成し、人々の知覚に影響を与える可能性がある。
本稿では,視覚的特徴に欠けるが,多様な方法で現れる新しい形態の暗黙バイアスを紹介する。
本稿では,T2I拡散モデルに対する暗黙バイアス注入攻撃フレームワーク(IBI-Attacks)を提案する。
論文 参考訳(メタデータ) (2025-04-02T15:24:12Z) - Exploring Pre-trained Text-to-Video Diffusion Models for Referring Video Object Segmentation [72.90144343056227]
ビデオ理解タスクのためのテキスト・ツー・ビデオ拡散モデル(T2V)から生成した視覚的表現について検討する。
固定されたT2Vモデル上に構築された専用コンポーネントを備えた新しいフレームワーク「VD-IT」を紹介する。
我々のVD-ITは、既存の最先端手法を超越して、非常に競争力のある結果を得る。
論文 参考訳(メタデータ) (2024-03-18T17:59:58Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Finetuning Text-to-Image Diffusion Models for Fairness [43.80733100304361]
公平性は分布的アライメント問題である。
経験的手法では、職業的プロンプトに対する性別、人種、およびそれらの交叉バイアスを著しく低減する。
我々の手法は絶対的平等を超えた公平性の多様な視点を支えている。
論文 参考訳(メタデータ) (2023-11-11T05:40:54Z) - Balancing the Picture: Debiasing Vision-Language Datasets with Synthetic
Contrast Sets [52.77024349608834]
視覚言語モデルは、インターネットから未計算の画像テキストペアの事前トレーニング中に学んだ社会的バイアスを永続し、増幅することができる。
COCO Captionsは、背景コンテキストとその場にいる人々の性別間のバイアスを評価するために最も一般的に使用されるデータセットである。
本研究では,COCOデータセットを男女バランスの取れたコントラストセットで拡張する新しいデータセットデバイアスパイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-24T17:59:18Z) - Towards Debiasing Temporal Sentence Grounding in Video [59.42702544312366]
ビデオ(TSGV)タスクの時間文グラウンドングは、未編集のビデオから時間モーメントを見つけ、言語クエリにマッチさせることである。
モーメントアノテーションのバイアスを考慮せずに、多くのモデルはモーメントアノテーションの統計的規則性を捉える傾向がある。
本稿では,データデバイアスとモデルデバイアスという2つのデバイアス戦略を提案する。
論文 参考訳(メタデータ) (2021-11-08T08:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。