論文の概要: Investigating Disability Representations in Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2602.04687v1
- Date: Wed, 04 Feb 2026 15:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.604638
- Title: Investigating Disability Representations in Text-to-Image Models
- Title(参考訳): テキスト・画像モデルにおける障害表現の検討
- Authors: Yang Yian, Yu Fan, Liudmila Zavolokina, Sarah Ebling,
- Abstract要約: 本研究では、障害者がAI生成画像でどのように表現されるかを検討する。
本研究は、一般的な障害プロンプトと特定の障害カテゴリを参照するプロンプトとの画像類似性を比較することで、障害表現を分析する。
- 参考スコア(独自算出の注目度): 7.244686394468418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generative models have made remarkable progress in producing high-quality visual content from textual descriptions, yet concerns remain about how they represent social groups. While characteristics like gender and race have received increasing attention, disability representations remain underexplored. This study investigates how people with disabilities are represented in AI-generated images by analyzing outputs from Stable Diffusion XL and DALL-E 3 using a structured prompt design. We analyze disability representations by comparing image similarities between generic disability prompts and prompts referring to specific disability categories. Moreover, we evaluate how mitigation strategies influence disability portrayals, with a focus on assessing affective framing through sentiment polarity analysis, combining both automatic and human evaluation. Our findings reveal persistent representational imbalances and highlight the need for continuous evaluation and refinement of generative models to foster more diverse and inclusive portrayals of disability.
- Abstract(参考訳): テキスト・ツー・イメージ生成モデルは、テキスト記述から高品質な視覚コンテンツを制作する際、顕著な進歩を遂げている。
性別や人種といった特徴は注目されているものの、障害の表現はいまだに未発見のままである。
本研究では、構造化されたプロンプト設計を用いて、安定拡散XLおよびDALL-E3からの出力を解析することにより、障害者がAI生成画像にどのように表現されるかを検討する。
本研究は、一般的な障害プロンプトと特定の障害カテゴリを参照するプロンプトとの画像類似性を比較することで、障害表現を分析する。
さらに、感情極性分析による感情フレーミングの評価に焦点をあて、障害の描写に緩和戦略がどのような影響を及ぼすかを評価し、自動評価と人的評価を併用する。
本研究は, 持続的表現の不均衡を明らかにし, 障害の多様性と包括的表現を促進するために, 生成モデルの継続的な評価と改善の必要性を強調した。
関連論文リスト
- Auditing Disability Representation in Vision-Language Models [0.6987503477818553]
人中心画像の障害認識記述について検討する。
我々は,ペアニュートラル・プロンプト (NP) と障害文脈型プロンプト (DP) に基づくベンチマークを導入する。
9つの障害カテゴリにまたがるゼロショット設定で、15の最先端のオープンソースおよびクローズドソースビジョン言語モデルを評価する。
論文 参考訳(メタデータ) (2026-01-24T07:25:43Z) - Who's Asking? Investigating Bias Through the Lens of Disability Framed Queries in LLMs [2.722784054643991]
大規模言語モデル(LLM)は、ユーザの人口統計特性を、単独で推測する。
これらの推論を形作る際の障害の手がかりは、ほとんど未発見のままである。
そこで本研究では,障害条件による人口統計バイアスを,最先端の8つのLLMに対して,初めて体系的に評価した。
論文 参考訳(メタデータ) (2025-08-18T21:03:09Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Disability Representations: Finding Biases in Automatic Image Generation [0.0]
本研究では、人気の画像生成モデルにおける障害者に対する表現バイアスについて検討する。
その結果、ほとんどの画像は、障害者を年老いて悲しく、主に手動車椅子で描いているという大きな偏見が示された。
これらの発見は、より包括的なAI開発の必要性を強調し、生成された画像におけるPWDの多様性と正確な表現を保証する。
論文 参考訳(メタデータ) (2024-06-21T09:12:31Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z) - Describing image focused in cognitive and visual details for visually
impaired people: An approach to generating inclusive paragraphs [2.362412515574206]
ウェブナーなど、オンラインコンテンツに表示される画像コンテキストの理解など、特定のタスクをサポートするサービスが不足している。
本稿では,高密度キャプション手法とフィルタを併用したウェビナー画像のコンテキスト生成手法を提案し,ドメイン内のキャプションに適合する手法と抽象要約タスクのための言語モデルを提案する。
論文 参考訳(メタデータ) (2022-02-10T21:20:53Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。