論文の概要: Investigating Associational Biases in Inter-Model Communication of Large Generative Models
- arxiv url: http://arxiv.org/abs/2601.22093v1
- Date: Thu, 29 Jan 2026 18:29:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.076014
- Title: Investigating Associational Biases in Inter-Model Communication of Large Generative Models
- Title(参考訳): 大規模生成モデルのモデル間通信における関連バイアスの検討
- Authors: Fethiye Irmak Dogan, Yuval Weiss, Kajal Patel, Jiaee Cheong, Hatice Gunes,
- Abstract要約: 生成的AIにおける社会的バイアスは、パフォーマンスの格差として、および関連バイアスとして現れる。
画像生成と画像記述を交互に行うモデル間通信パイプライン内での関連性について検討する。
以上の結果から,若年者の行動表現や感情表現の傾向,女性表現の傾向が示唆された。
- 参考スコア(独自算出の注目度): 8.394205333688165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social bias in generative AI can manifest not only as performance disparities but also as associational bias, whereby models learn and reproduce stereotypical associations between concepts and demographic groups, even in the absence of explicit demographic information (e.g., associating doctors with men). These associations can persist, propagate, and potentially amplify across repeated exchanges in inter-model communication pipelines, where one generative model's output becomes another's input. This is especially salient for human-centred perception tasks, such as human activity recognition and affect prediction, where inferences about behaviour and internal states can lead to errors or stereotypical associations that propagate into unequal treatment. In this work, focusing on human activity and affective expression, we study how such associations evolve within an inter-model communication pipeline that alternates between image generation and image description. Using the RAF-DB and PHASE datasets, we quantify demographic distribution drift induced by model-to-model information exchange and assess whether these drifts are systematic using an explainability pipeline. Our results reveal demographic drifts toward younger representations for both actions and emotions, as well as toward more female-presenting representations, primarily for emotions. We further find evidence that some predictions are supported by spurious visual regions (e.g., background or hair) rather than concept-relevant cues (e.g., body or face). We also examine whether these demographic drifts translate into measurable differences in downstream behaviour, i.e., while predicting activity and emotion labels. Finally, we outline mitigation strategies spanning data-centric, training and deployment interventions, and emphasise the need for careful safeguards when deploying interconnected models in human-centred AI systems.
- Abstract(参考訳): 生成的AIにおける社会的バイアスは、パフォーマンスの格差だけでなく、関係バイアスとして表すことができ、モデルが明確な人口統計情報(例えば、医師と男性を関連づける)がなくても、概念と人口集団の間のステレオタイプ的関連を学習し、再現する。
これらのアソシエーションは、モデル間通信パイプラインにおける繰り返し交換を持続し、伝播し、潜在的に増幅し、ある生成モデルの出力が別の入力となる。
これは、人間の行動認識や影響予測のような人間中心の知覚タスクには特に有益であり、行動や内部状態に関する推論は、不平等な治療に伝播するエラーやステレオタイプ的な関連をもたらす可能性がある。
本研究では、人間の活動と感情表現に着目し、画像生成と画像記述を交互に行うモデル間通信パイプライン内で、そのような関連がどのように進化するかを考察する。
RAF-DBとPHASEデータセットを用いて、モデル間情報交換によって誘導される人口分布のドリフトを定量化し、これらのドリフトが説明可能性パイプラインを用いて体系的であるかどうかを評価する。
以上の結果から,行動と感情の両面での若年者表現への人口移動や,特に感情に対する女性表現への人口移動が明らかとなった。
さらに、いくつかの予測は、概念に関連する手がかり(例えば、身体や顔)よりも、刺激的な視覚領域(例えば、背景や毛髪)によって支えられていることを示す。
また、これらの人口変動が下流行動の計測可能な相違、すなわち活動や感情のラベルを予測しているかどうかについても検討した。
最後に、データ中心、トレーニング、デプロイメントの介入にまたがる緩和戦略を概説し、人間中心のAIシステムに相互接続されたモデルをデプロイする際の注意深い保護の必要性を強調します。
関連論文リスト
- Race, Ethnicity and Their Implication on Bias in Large Language Models [9.202525724606188]
大型言語モデル(LLM)における人種と民族の表現と運用について検討する。
人口統計情報は, 内部単位に分散し, モデル間差が大きいことが判明した。
このようなニューロンを阻害する介入はバイアスを減少させるが、かなりの影響を残している。
論文 参考訳(メタデータ) (2026-01-19T09:24:24Z) - Interpreting Social Bias in LVLMs via Information Flow Analysis and Multi-Round Dialogue Evaluation [1.7997395646080083]
大規模視覚言語モデル (LVLM) はマルチモーダルタスクにおいて顕著な進歩を遂げているが、社会的偏見も顕著である。
本稿では,情報フロー解析と多ラウンド対話評価を組み合わせた説明フレームワークを提案する。
実験により、LVLMは異なる人口集団の画像を処理する際に、情報利用の体系的な差異を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-05-27T12:28:44Z) - BiasConnect: Investigating Bias Interactions in Text-to-Image Models [73.76853483463836]
テキスト・ツー・イメージ・モデルにおけるバイアス相互作用の分析と定量化を目的とした新しいツールであるBiasConnectを紹介する。
我々の手法は、与えられたバイアスが修正されたとき、他のバイアス次元が理想的な分布に向かって、あるいは離れてどのように変化するかを示す経験的推定を提供する。
本稿では,最適なバイアス緩和軸の選択,学習する依存関係の異なるTTIモデルの比較,およびTTIモデルにおける交叉社会的バイアスの増幅を理解するためのBiasConnectの有用性を示す。
論文 参考訳(メタデータ) (2025-03-12T19:01:41Z) - Diffusion-Based Imitation Learning for Social Pose Generation [0.0]
ロボットや仮想エージェントのような知的なエージェントは、人間と対話する複雑な社会的相互作用のダイナミクスを理解する必要がある。
我々は、社会的相互作用における複数の個人の単一のモダリティ、ポーズ行動を用いて、その相互作用のファシリテータのための非言語的社会的手がかりを生成する方法について検討する。
論文 参考訳(メタデータ) (2025-01-18T20:31:55Z) - Comparing Fairness of Generative Mobility Models [3.699135947901772]
本研究は、生成モビリティモデルの公平性を検証し、地理的領域にわたるモデルパフォーマンスにおいて、しばしば見落とされがちなエクイティの次元に対処する。
クラウドフローデータに基づいて構築された予測モデルは、都市構造や移動パターンを理解するのに有効である。
生成したトレースの有効性と公平性を測定することによって、公正性を評価するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-07T06:01:12Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。