論文の概要: Nichelle and Nancy: The Influence of Demographic Attributes and
Tokenization Length on First Name Biases
- arxiv url: http://arxiv.org/abs/2305.16577v1
- Date: Fri, 26 May 2023 01:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 17:17:22.446047
- Title: Nichelle and Nancy: The Influence of Demographic Attributes and
Tokenization Length on First Name Biases
- Title(参考訳): NichelleとNancy: ファーストネームビアースにおけるデモグラフィック属性とトークン化長さの影響
- Authors: Haozhe An, Rachel Rudinger
- Abstract要約: 我々は、名前(人種、民族、性別)と名前のトークン化長の人口統計特性が、社会的常識推論モデルの行動に体系的に影響を及ぼす要因であることがわかった。
- 参考スコア(独自算出の注目度): 12.459949725707315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Through the use of first name substitution experiments, prior research has
demonstrated the tendency of social commonsense reasoning models to
systematically exhibit social biases along the dimensions of race, ethnicity,
and gender (An et al., 2023). Demographic attributes of first names, however,
are strongly correlated with corpus frequency and tokenization length, which
may influence model behavior independent of or in addition to demographic
factors. In this paper, we conduct a new series of first name substitution
experiments that measures the influence of these factors while controlling for
the others. We find that demographic attributes of a name (race, ethnicity, and
gender) and name tokenization length are both factors that systematically
affect the behavior of social commonsense reasoning models.
- Abstract(参考訳): ファーストネームの代替実験を用いて、先行研究は、人種、民族、性別の次元に沿って社会的バイアスを体系的に示す社会的常識推論モデルの傾向を実証している(An et al., 2023)。
しかし、ファーストネームのデモグラフィー特性はコーパス周波数とトークン化長と強く相関しており、人口統計学的要因に依存しないモデル行動に影響を及ぼす可能性がある。
本稿では,これら因子の影響を測定しながら,他の因子を制御した新しいファーストネーム置換実験を行う。
集団的属性(人種,民族,性別)と名前のトークン化期間は,社会常識推論モデルの行動に系統的に影響を及ぼす要因であることがわかった。
関連論文リスト
- Uncovering Name-Based Biases in Large Language Models Through Simulated Trust Game [0.0]
個人の名前から推測される性や人種は、社会的相互作用に微妙に影響を及ぼすステレオタイプやバイアスの顕著な源泉である。
提案手法は,ベースモデルと命令調整モデルの両方において,名前に基づくバイアスを検出する。
論文 参考訳(メタデータ) (2024-04-23T02:21:17Z) - Locating and Mitigating Gender Bias in Large Language Models [40.78150878350479]
大規模言語モデル(LLM)は、人間の好みを含む事実や人間の認知を学ぶために、広範囲なコーパスで事前訓練されている。
このプロセスは、社会においてバイアスや一般的なステレオタイプを取得するこれらのモデルに必然的に導かれる可能性がある。
本稿では,職業代名詞の性別バイアスを軽減する知識編集手法LSDMを提案する。
論文 参考訳(メタデータ) (2024-03-21T13:57:43Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a
Computational Approach [63.67533153887132]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [85.67870425656368]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - CIParsing: Unifying Causality Properties into Multiple Human Parsing [82.32620538918812]
既存のMHP(Multiple Human Parsing)の手法は、画像とラベル付けされた身体部分との間の基礎となる関係を取得するために統計モデルを適用している。
我々はCIParsingと呼ばれる因果性にインスパイアされた構文解析のパラダイムを提示し、人間の解析に2つの因果性を含む基本的な因果原理に従う。
CIParsingはプラグイン・アンド・プレイ方式で設計されており、既存のMHPモデルに統合することができる。
論文 参考訳(メタデータ) (2023-08-23T15:56:26Z) - Examining the Causal Effect of First Names on Language Models: The Case
of Social Commonsense Reasoning [2.013330800976407]
ファーストネームは、社会デミノグラフィー表現のプロキシとして機能する。
モデルが与えられた入力に対する推論が、提供された最初の名前に基づいて異なるかどうかを考察する。
論文 参考訳(メタデータ) (2023-06-01T20:05:05Z) - Towards Explaining Demographic Bias through the Eyes of Face Recognition
Models [6.889667606945215]
データとアルゴリズムの両方に固有のバイアスは、機械学習(ML)ベースの意思決定システムの公平性を最適以下にする。
我々は、異なる人口集団を処理する際に、顔認識モデルの振る舞いの違いを分析する一連の説明可能性ツールを提供することを目標としている。
我々は、アクティベーションマップに基づく高次統計情報を活用して、FRモデルの行動差を特定の顔領域に関連付ける説明可能性ツールを構築する。
論文 参考訳(メタデータ) (2022-08-29T07:23:06Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Assessing Demographic Bias in Named Entity Recognition [0.21485350418225244]
合成コーパスを用いたグループ間における英語の固有認識システムのバイアス評価を行った。
ELMoのような文字ベースの文脈化された単語表現モデルは、人口統計学において最小のバイアスをもたらす。
論文 参考訳(メタデータ) (2020-08-08T02:01:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。