論文の概要: Assessing the quality and coherence of word embeddings after SCM-based intersectional bias mitigation
- arxiv url: http://arxiv.org/abs/2601.04393v1
- Date: Wed, 07 Jan 2026 21:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.919313
- Title: Assessing the quality and coherence of word embeddings after SCM-based intersectional bias mitigation
- Title(参考訳): SCMによる交差バイアス緩和後の単語埋め込みの品質とコヒーレンスの評価
- Authors: Eren Kocadag, Seyed Sahand Mohammadi Ziabari, Ali Mohammed Mansoor Alsahag,
- Abstract要約: 広く使われている3つの埋め込みファミリー(Word2Vec、GloVe、ConceptNet Numberbatch)について検討する。
本稿では, 減算, 線形投射, 部分投射の3つの脱バイアス戦略について検討する。
立体型コンテンツモデルとの交叉脱バイアスは, 静的埋め込みにおいて実用的であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Static word embeddings often absorb social biases from the text they learn from, and those biases can quietly shape downstream systems. Prior work that uses the Stereotype Content Model (SCM) has focused mostly on single-group bias along warmth and competence. We broaden that lens to intersectional bias by building compound representations for pairs of social identities through summation or concatenation, and by applying three debiasing strategies: Subtraction, Linear Projection, and Partial Projection. We study three widely used embedding families (Word2Vec, GloVe, and ConceptNet Numberbatch) and assess them with two complementary views of utility: whether local neighborhoods remain coherent and whether analogy behavior is preserved. Across models, SCM-based mitigation carries over well to the intersectional case and largely keeps the overall semantic landscape intact. The main cost is a familiar trade off: methods that most tightly preserve geometry tend to be more cautious about analogy behavior, while more assertive projections can improve analogies at the expense of strict neighborhood stability. Partial Projection is reliably conservative and keeps representations steady; Linear Projection can be more assertive; Subtraction is a simple baseline that remains competitive. The choice between summation and concatenation depends on the embedding family and the application goal. Together, these findings suggest that intersectional debiasing with SCM is practical in static embed- dings, and they offer guidance for selecting aggregation and debiasing settings when balancing stability against analogy performance.
- Abstract(参考訳): 静的な単語埋め込みは、しばしば彼らが学んだテキストから社会的バイアスを吸収し、それらのバイアスは下流のシステムを静かに形作る。
Stereotype Content Model(SCM)を使った以前の作業は、暖かさと能力に沿って、主に単一グループのバイアスに焦点を当てていました。
我々は、このレンズを交叉バイアスに拡張し、要約や連結を通じて、一対の社会的アイデンティティの複合表現を構築し、さらに、減算、線形投影、部分射影の3つの脱バイアス戦略を適用した。
筆者らは,広く利用されている3つの埋め込みファミリー(Word2Vec,GloVe,ConceptNet Numberbatch)について検討し,有効性について2つの相補的な考察を行った。
モデル全体にわたって、SCMに基づく緩和は、交差するケースによく行き着き、全体的な意味的な景観をそのままに保ちます。
幾何を最も厳密に保存する手法は類推行動に対してより慎重な傾向にあるが、より断定的な予測は厳密な近傍安定性を犠牲にして類推を改善することができる。
部分射影は確実に保守的であり、表現を安定させ続ける; 線形射影はより断定的である; 減射は競争力を維持する単純な基底線である。
和と結合の選択は、埋め込みファミリとアプリケーションゴールに依存します。
これらの結果から,SCMとの交叉脱バイアスは静的な組込み方式では実用的であることが示唆され,類似性能に対する安定性のバランスをとる際に,アグリゲーションの選択とデバイアス設定のためのガイダンスが提供される。
関連論文リスト
- Bias Is a Subspace, Not a Coordinate: A Geometric Rethinking of Post-hoc Debiasing in Vision-Language Models [13.46898179372249]
VLM(Vision-Language Models)は、マルチモーダルな推論には欠かせないものとなっているが、それらの表現はしばしば人口統計バイアスをエンコードし増幅している。
線形デオード可能なバイアスの全部分空間を同定・除去する幾何学的原理の枠組みを提案する。
提案手法は, 4つのフェアネス指標に対して平均18.5%の精度向上を達成し, より堅牢なデバイアス化を実現する。
論文 参考訳(メタデータ) (2025-11-22T17:04:30Z) - TriCon-Fair: Triplet Contrastive Learning for Mitigating Social Bias in Pre-trained Language Models [14.709063635156054]
TriCon-Fairは、三重項と言語モデリングの用語を組み合わせて、正負の結合を排除する、分離された損失を利用する対照的な学習フレームワークである。
実験結果から,TriCon-Fairは既存のデバイアスベースラインを超えて識別出力を減少させることが示された。
論文 参考訳(メタデータ) (2025-11-02T08:37:56Z) - Beacon: Single-Turn Diagnosis and Mitigation of Latent Sycophancy in Large Language Models [0.0]
大きな言語モデルは、真理と曖昧な平らさの間の構造的なトレードオフを内部化する。
この潜伏バイアスは、梅毒(sycophancy)として知られるもので、原則的推論よりもユーザ合意を優先している。
我々は,このバイアスを会話の文脈とは無関係に分離する,単ターン強制選択ベンチマークであるBeaconを紹介した。
論文 参考訳(メタデータ) (2025-10-19T06:36:57Z) - APFEx: Adaptive Pareto Front Explorer for Intersectional Fairness [16.993547305381327]
本稿では,共同最適化問題として,交差フェアネスを明示的にモデル化する最初のフレームワークであるAPFExを紹介する。
APFExは、適応的な多目的性、勾配重み付け、探索戦略を組み合わせて、公正さと精度のトレードオフをナビゲートする。
4つの実世界のデータセットの実験は、APFExの優位性を示し、競争精度を維持しながら公正な違反を減らす。
論文 参考訳(メタデータ) (2025-09-17T11:13:22Z) - Enhancing the Robustness of Contextual ASR to Varying Biasing Information Volumes Through Purified Semantic Correlation Joint Modeling [63.755562174967274]
クロスアテンションはバイアス情報量の変化に影響される。
そこで本研究では,PSC-Jointを用いた意味相関結合モデリング手法を提案する。
PSC-JointはAISHELL-1では21.34%、KeSpeechでは28.46%の平均的なF1スコアの改善を達成した。
論文 参考訳(メタデータ) (2025-09-07T03:46:59Z) - Mitigate One, Skew Another? Tackling Intersectional Biases in Text-to-Image Models [73.20190633746442]
テキスト・ツー・イメージ・モデルにおけるバイアス相互作用を解析・定量化するための新しいツールであるBiasConnectを紹介する。
ユーザが定義した目標分布と優先度重みを導出する交叉バイアス緩和アルゴリズムであるInterMitを提案する。
論文 参考訳(メタデータ) (2025-05-22T20:56:38Z) - Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs [25.62533031580287]
大規模言語モデル(LLM)のバイアスは、その信頼性と公平性を著しく損なう。
モデルベクトル空間の構造に基づくテストセットのないバイアス分析フレームワークであるBiasLensを提案する。
論文 参考訳(メタデータ) (2025-05-21T13:50:23Z) - Fairness Mediator: Neutralize Stereotype Associations to Mitigate Bias in Large Language Models [66.5536396328527]
LLMは必然的にトレーニングデータから急激な相関関係を吸収し、偏りのある概念と特定の社会的グループの間のステレオタイプ的関連をもたらす。
ステレオタイプアソシエーションを中和するバイアス緩和フレームワークであるFairness Mediator (FairMed)を提案する。
本フレームワークは, ステレオタイプアソシエーションプローバーと, 対向型デバイアス中和剤の2つの主成分からなる。
論文 参考訳(メタデータ) (2025-04-10T14:23:06Z) - BiasConnect: Investigating Bias Interactions in Text-to-Image Models [73.76853483463836]
テキスト・ツー・イメージ・モデルにおけるバイアス相互作用の分析と定量化を目的とした新しいツールであるBiasConnectを紹介する。
我々の手法は、与えられたバイアスが修正されたとき、他のバイアス次元が理想的な分布に向かって、あるいは離れてどのように変化するかを示す経験的推定を提供する。
本稿では,最適なバイアス緩和軸の選択,学習する依存関係の異なるTTIモデルの比較,およびTTIモデルにおける交叉社会的バイアスの増幅を理解するためのBiasConnectの有用性を示す。
論文 参考訳(メタデータ) (2025-03-12T19:01:41Z) - Beyond Instance Discrimination: Relation-aware Contrastive
Self-supervised Learning [75.46664770669949]
本稿では,関係認識型コントラスト型自己教師型学習(ReCo)をインスタンス関係に統合するために提案する。
当社のReCoは、常に顕著なパフォーマンス改善を実現しています。
論文 参考訳(メタデータ) (2022-11-02T03:25:28Z) - Learning Equilibria in Matching Markets from Bandit Feedback [139.29934476625488]
不確実性の下で安定した市場成果を学習するためのフレームワークとアルゴリズムを開発する。
私たちの研究は、大規模なデータ駆動の市場において、いつ、どのように安定したマッチングが生じるかを明らかにするための第一歩を踏み出します。
論文 参考訳(メタデータ) (2021-08-19T17:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。