論文の概要: Large Language Models Naively Recover Ethnicity from Individual Records
- arxiv url: http://arxiv.org/abs/2601.21132v1
- Date: Thu, 29 Jan 2026 00:17:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.485443
- Title: Large Language Models Naively Recover Ethnicity from Individual Records
- Title(参考訳): 大規模言語モデルによる個人記録からのエスニシティの抽出
- Authors: Noah Dasanaike,
- Abstract要約: 私は、大きな言語モデルがベイジアン改良名前ジオコーディング(BISG)よりも精度の高い名前から民族性を推測できることを示した。
フロリダとノースカロライナの投票者ファイルから、自己申告された人種の階層化されたサンプルを用いて、LLMベースの分類は84.7%の精度を達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: I demonstrate that large language models can infer ethnicity from names with accuracy exceeding that of Bayesian Improved Surname Geocoding (BISG) without additional training data, enabling inference outside the United States and to contextually appropriate classification categories. Using stratified samples from Florida and North Carolina voter files with self-reported race, LLM-based classification achieves up to 84.7% accuracy, outperforming BISG (68.2%) on balanced samples. I test six models including Gemini 3 Flash, GPT-4o, and open-source alternatives such as DeepSeek v3.2 and GLM-4.7. Enabling extended reasoning can improve accuracy by 1-3 percentage points, though effects vary across contexts; including metadata such as party registration reaches 86.7%. LLM classification also reduces the income bias inherent in BISG, where minorities in wealthier neighborhoods are systematically misclassified as White. I further validate using Lebanese voter registration with religious sect (64.3% accuracy), Indian MPs from reserved constituencies (99.2%), and Indian land records with caste classification (74.0%). Aggregate validation across India, Uganda, Nepal, Armenia, Chile, and Costa Rica using original full-count voter rolls demonstrates that the method recovers known population distributions where naming conventions are distinctive. For large-scale applications, small transformer models fine-tuned on LLM labels exceed BISG accuracy while enabling local deployment at no cost.
- Abstract(参考訳): 大規模な言語モデルでは,ベイジアン改良名称ジオコーディング(BISG)よりも精度の高い名前から,さらに訓練データなしで民族性を推測することが可能であり,米国外での推論や,文脈的に適切な分類が可能であることを実証する。
フロリダ州とノースカロライナの投票者ファイルの階層化された標本を自己申告した結果、LSMベースの分類は84.7%の精度で、バランスの取れた標本ではBISG(68.2%)を上回っている。
Gemini 3 Flash、GPT-4o、DeepSeek v3.2やGLM-4.7といったオープンソースの代替品を6つのモデルでテストします。
拡張推論の精度は1-3ポイント向上するが、影響は状況によって異なり、政党登録などのメタデータも86.7%に達する。
LLM分類はまた、より富裕な地区のマイノリティが系統的にホワイトと誤分類されるBISGに固有の収入バイアスを減少させる。
さらに、宗教宗派によるレバノンの有権者登録(64.3%の精度)、予備選挙区からのインド人議員(99.2%)、カスト分類によるインドの土地記録(74.0%)を検証した。
インド、ウガンダ、ネパール、アルメニア、チリ、コスタリカにまたがる総計投票率の検証は、この方法が命名規則が独特な既知の人口分布を復元することを示した。
大規模アプリケーションの場合、LLMラベルに微調整された小型トランスモデルは、BISGの精度を上回り、ローカルデプロイメントを無償で実現している。
関連論文リスト
- Mind the Gaps: Auditing and Reducing Group Inequity in Large-Scale Mobility Prediction [9.369284351516358]
次のロケーション予測は、モビリティ、小売、公衆衛生のアプリケーションの増加を支えている。
本稿では,大規模データセット上で訓練された最先端のモビリティ予測モデルを評価する。
基礎となるデータセットから生じる系統的な差異が示され、位置とユーザグループに基づいて精度に大きな違いが生じる。
論文 参考訳(メタデータ) (2025-10-30T18:54:33Z) - LLM-Guided Synthetic Augmentation (LGSA) for Mitigating Bias in AI Systems [0.24699742392288992]
特定のグループの控えめな表現は、しばしば人口統計学的に不均一なパフォーマンスをもたらす。
これらの課題に対処するために,LLM-Guided Synthetic Augmentation (LGSA)を提案する。
LGSAは、ラベルの整合性を保ちながら、大きな言語モデルを使用して、表現不足のグループの反実例を生成する。
論文 参考訳(メタデータ) (2025-10-15T06:42:35Z) - Obscured but Not Erased: Evaluating Nationality Bias in LLMs via Name-Based Bias Benchmarks [0.0]
大きな言語モデル(LLM)は、明示的な人口統計マーカーが存在しない場合でも、特定の国籍に対する潜在バイアスを示す。
文化的に表象的な名前で明示的な国籍ラベルを置換することの影響を調査するために,新しい名称ベースのベンチマーク手法を導入する。
私たちの実験では、小さなモデルの方が精度が低く、大きなモデルに比べてバイアスが大きいことが示されています。
論文 参考訳(メタデータ) (2025-07-22T19:54:49Z) - Mitigating Subgroup Disparities in Multi-Label Speech Emotion Recognition: A Pseudo-Labeling and Unsupervised Learning Approach [53.824673312331626]
Implicit Demography Inference (IDI)モジュールは、k平均クラスタリングを用いて、音声感情認識(SER)におけるバイアスを軽減する
実験により、擬似ラベルIDIはサブグループの格差を減らし、フェアネスの指標を28%以上改善することが示された。
教師なしのIDIは、SERのパフォーマンスが3.6%未満のフェアネス指標を4.6%以上改善する。
論文 参考訳(メタデータ) (2025-05-20T14:50:44Z) - Mind the Gap: Confidence Discrepancy Can Guide Federated Semi-Supervised Learning Across Pseudo-Mismatch [50.632535091877706]
Federated Semi-Supervised Learning (FSSL)は、ラベル付きデータに制限のあるクライアント間でラベル付きデータを活用して、強力な一般化能力を持つグローバルモデルをトレーニングすることを目的としている。
ほとんどのFSSL手法は擬似ラベルによる整合正則化に依存しており、局所的またはグローバルなモデルからの予測を監督信号としてハード擬似ラベルに変換する。
擬似ラベルの品質は、フェデレーション学習の本質的な側面であるデータ不均一性によって大きく劣化していることを示す。
論文 参考訳(メタデータ) (2025-03-17T14:41:51Z) - Distortions in Judged Spatial Relations in Large Language Models [45.875801135769585]
GPT-4は55%の精度で優れた性能を示し、GPT-3.5は47%、Llama-2は45%であった。
モデルは、ほとんどの場合において最も近い基数方向を同定し、その連想学習機構を反映した。
論文 参考訳(メタデータ) (2024-01-08T20:08:04Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
本稿では,ラベルスキュード・フェデレーション学習の新しいアプローチであるFedVLSを紹介する。
空のクラス蒸留とロジット抑制を同時に統合する。
FedVLSの有効性を検証する実験は、従来のSOTA(State-of-the-art)法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - GeT: Generative Target Structure Debiasing for Domain Adaptation [67.17025068995835]
ドメイン適応(DA)は、ドメインシフトの下で、完全にラベル付けされたソースからほとんどラベル付けされていない、または完全にラベル付けされていないターゲットに知識を転送することを目的としています。
近年,擬似ラベリングを利用した半教師付き学習(SSL)技術がDAでますます普及している。
本稿では,高品質な擬似ラベルを用いた非バイアス対象埋め込み分布を学習するGeTを提案する。
論文 参考訳(メタデータ) (2023-08-20T08:52:43Z) - Estimating Racial Disparities When Race is Not Observed [3.0931877196387196]
本稿では,人種間の格差を推定する新しいモデルについて,人種の指標変数として姓を用いて紹介する。
ノースカロライナの投票者ファイルに基づく検証調査では、BISG+BIRDiEは政党登録における人種的違いを推定した場合、エラーを最大84%削減している。
提案手法を適用し,米国内国歳入庁の個人レベルの税率データを用いて住宅ローン利子控除の恩恵を受ける者の人種差を推定する。
論文 参考訳(メタデータ) (2023-03-05T04:46:16Z) - Benchmarking Bayesian Improved Surname Geocoding Against Machine
Learning Methods [0.0]
BISGは、投票者登録ファイルの人種/民族をプロキシする最も一般的な方法である。
本稿は、BISGを、未試験の機械学習代替品に対してベンチマークする。
その結果,個別分類では,事前学習された機械学習モデルの方がBISGより望ましいことが示唆された。
論文 参考訳(メタデータ) (2022-06-26T11:12:37Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Improving Semi-supervised Federated Learning by Reducing the Gradient
Diversity of Models [67.66144604972052]
Federated Learning(FL)は、ユーザのプライバシを維持しながらモバイルデバイスのコンピューティングパワーを使用する、有望な方法だ。
テスト精度に影響を与える重要な問題は、異なるユーザーからのモデルの勾配の多様性であることを示す。
本稿では,FedAvg平均化を代替するグループモデル平均化手法を提案する。
論文 参考訳(メタデータ) (2020-08-26T03:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。