論文の概要: Homogeneity Bias as Differential Sampling Uncertainty in Language Models
- arxiv url: http://arxiv.org/abs/2501.19337v1
- Date: Fri, 31 Jan 2025 17:36:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:03:35.270799
- Title: Homogeneity Bias as Differential Sampling Uncertainty in Language Models
- Title(参考訳): 言語モデルにおける差分サンプリングの不確かさとしての均一性バイアス
- Authors: Messi H. J. Lee, Soyeon Jeon,
- Abstract要約: 大規模言語モデル (LLMs) と視覚言語モデル (VLMs) は、支配的なグループよりも一様である。
このバイアスは、トークンが推論時にサンプリングされる確率分布の体系的な違いから生じる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Prior research show that Large Language Models (LLMs) and Vision-Language Models (VLMs) represent marginalized groups more homogeneously than dominant groups. However, the mechanisms underlying this homogeneity bias remain relatively unexplored. We propose that this bias emerges from systematic differences in the probability distributions from which tokens are sampled at inference-time. Analyzing three measures of uncertainty in token sampling distributions-entropy, perplexity, and probability of differentiation-we find that in some models, specifically GPT-4 Turbo and Llama-3.2, tokens are sampled more deterministically when generating texts about marginalized groups (i.e., Black Americans and women) compared to their dominant group counterparts (i.e., White Americans and men). While these findings may help explain homogeneity bias in certain models, the patterns did not replicate across all VLMs tested, suggesting multiple mechanisms may contribute to homogeneity bias in AI.
- Abstract(参考訳): 以前の研究では、Large Language Models (LLMs) とVision-Language Models (VLMs) が、支配的なグループよりもより均質に、疎外されたグループを表すことが示されている。
しかし、この均質性バイアスのメカニズムはいまだに未解明のままである。
このバイアスは、トークンが推論時にサンプリングされる確率分布の体系的な違いから生じる。
トークンサンプリング分布のエントロピー、パープレキシティ、分化の確率の3つの不確実性を分析すると、いくつかのモデル、特にGPT-4 Turbo と Llama-3.2では、トークンは、支配的なグループ(すなわち、白人と男性)と比較して、疎化グループ(すなわち、黒人と女性)に関するテキストを生成するときに、より決定論的にサンプリングされる。
これらの発見は、あるモデルにおける均質性バイアスを説明するのに役立つかもしれないが、このパターンはテストされた全てのVLMに複製されず、複数のメカニズムがAIの均質性バイアスに寄与する可能性が示唆された。
関連論文リスト
- Evaluating Binary Decision Biases in Large Language Models: Implications for Fair Agent-Based Financial Simulations [15.379345372327375]
エージェントベースの金融市場モデルにおいて、人間のような意思決定をシミュレートするために、LLM(Large Language Models)がますます使われている。
我々は,2つのモデルサンプリングアプローチ(ワンショットと少数ショットのAPIクエリ)を用いて,最先端のGPTモデル3つをバイアスとして検証する。
論文 参考訳(メタデータ) (2025-01-20T10:36:51Z) - Examining the Robustness of Homogeneity Bias to Hyperparameter Adjustments in GPT-4 [0.0]
人間の生成した大量のデータを学習した視覚言語モデルは、しばしば社会的ステレオタイプを再現し増幅する。
我々は,このバイアスがGPT-4の過度パラメータ調整にどのように反応するかを検討する。
黒人や女性は、白人や男性よりも均質に表現されている。
論文 参考訳(メタデータ) (2025-01-04T06:51:49Z) - Probability of Differentiation Reveals Brittleness of Homogeneity Bias in GPT-4 [0.0]
LLM(Large Language Models)における均一性バイアス(英語版)とは、ある集団の表現を他と比較して均質化する傾向を指す。
このバイアスを文書化する以前の研究は、主にエンコーダモデルを使用しており、それは必然的にバイアスを導入した可能性がある。
本研究は、エンコーダモデルをバイパスして、モデル出力から均一性バイアスを直接評価する。
論文 参考訳(メタデータ) (2024-07-10T02:56:55Z) - Particle Guidance: non-I.I.D. Diverse Sampling with Diffusion Models [41.192240810280424]
本稿では, 粒子間時間進化ポテンシャルが多様性を強制する拡散型生成サンプリングの拡張である粒子誘導法を提案する。
我々は,粒子誘導が生み出す結合分布,最適多様性を達成するポテンシャルの学習方法,および他の分野の手法との関係を理論的に分析する。
論文 参考訳(メタデータ) (2023-10-19T19:01:00Z) - Shedding light on underrepresentation and Sampling Bias in machine
learning [0.0]
差別を分散、偏見、ノイズに分解する方法を示す。
我々は、未表現グループのサンプルを多く集めることで、識別に対処できるという、広く受け入れられている緩和アプローチに挑戦する。
論文 参考訳(メタデータ) (2023-06-08T09:34:20Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Statistical Properties of the Entropy from Ordinal Patterns [55.551675080361335]
大規模な時系列モデルに対するエントロピー・統計複雑性の連立分布を知っていれば、今日まで利用できない統計テストが可能になるだろう。
実正規化エントロピーが零でも1でもないモデルに対して、経験的シャノンのエントロピーの分布を特徴づける。
2つの信号が同じシャノンのエントロピーを持つ順序パターンを生成するという仮説を否定するのに十分な証拠があるかどうかを検証する。
論文 参考訳(メタデータ) (2022-09-15T23:55:58Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Contextuality scenarios arising from networks of stochastic processes [68.8204255655161]
経験的モデルは、その分布が X 上の合同分布を極小化することができなければ文脈的と言える。
我々は、多くのプロセス間の相互作用という、文脈的経験的モデルの異なる古典的な源泉を示す。
長期にわたるネットワークの統計的挙動は、経験的モデルを一般的な文脈的かつ強い文脈的にする。
論文 参考訳(メタデータ) (2020-06-22T16:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。