論文の概要: Estimating Racial Disparities When Race is Not Observed
- arxiv url: http://arxiv.org/abs/2303.02580v2
- Date: Wed, 17 Apr 2024 00:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 19:59:48.019058
- Title: Estimating Racial Disparities When Race is Not Observed
- Title(参考訳): レースが観測されない場合の人種格差の推定
- Authors: Cory McCartan, Robin Fisher, Jacob Goldin, Daniel E. Ho, Kosuke Imai,
- Abstract要約: 本稿では,人種間の格差を推定する新しいモデルについて,人種の指標変数として姓を用いて紹介する。
ノースカロライナの投票者ファイルに基づく検証調査では、BISG+BIRDiEは政党登録における人種的違いを推定した場合、エラーを最大84%削減している。
提案手法を適用し,米国内国歳入庁の個人レベルの税率データを用いて住宅ローン利子控除の恩恵を受ける者の人種差を推定する。
- 参考スコア(独自算出の注目度): 3.0931877196387196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The estimation of racial disparities in various fields is often hampered by the lack of individual-level racial information. In many cases, the law prohibits the collection of such information to prevent direct racial discrimination. As a result, analysts have frequently adopted Bayesian Improved Surname Geocoding (BISG) and its variants, which combine individual names and addresses with Census data to predict race. Unfortunately, the residuals of BISG are often correlated with the outcomes of interest, generally attenuating estimates of racial disparities. To correct this bias, we propose an alternative identification strategy under the assumption that surname is conditionally independent of the outcome given (unobserved) race, residence location, and other observed characteristics. We introduce a new class of models, Bayesian Instrumental Regression for Disparity Estimation (BIRDiE), that take BISG probabilities as inputs and produce racial disparity estimates by using surnames as an instrumental variable for race. Our estimation method is scalable, making it possible to analyze large-scale administrative data. We also show how to address potential violations of the key identification assumptions. A validation study based on the North Carolina voter file shows that BISG+BIRDiE reduces error by up to 84% when estimating racial differences in party registration. Finally, we apply the proposed methodology to estimate racial differences in who benefits from the home mortgage interest deduction using individual-level tax data from the U.S. Internal Revenue Service. Open-source software is available which implements the proposed methodology.
- Abstract(参考訳): 様々な分野における人種格差の推定は、個人レベルの人種情報の欠如によってしばしば妨げられる。
多くの場合、この法律はそのような情報の収集を禁止し、直接の人種差別を防ぐ。
その結果、アナリストはベイジアン改良サーネームジオコーディング(BISG)とその変種を頻繁に採用し、個々の名前と住所と国勢調査データを組み合わせて人種を予測する。
残念なことに、BISGの残差は、しばしば興味の結果と相関しており、一般的に人種格差の見積もりを減らしている。
このバイアスを正すために,氏姓が与えられた(観測されていない)人種,居住地,その他の観察された特徴から条件的に独立しているという前提の下で,代替的な識別戦略を提案する。
我々は,BISGの確率を入力として捉え,人種的不一致推定を人種的不一致推定の指標変数として用い,新しいモデルであるベイジアン・インストゥルメンタル・レグレッション・フォー・ディパリティ・アセスメント(BIRDiE)を導入する。
提案手法はスケーラブルであり,大規模管理データの解析が可能となる。
また、鍵識別の前提に違反する可能性のある問題にも対処する方法を示す。
ノースカロライナの有権者ファイルに基づく検証調査では、BISG+BIRDiEは政党登録における人種的違いを推定すると、誤りを最大84%減らす。
最後に、提案手法を適用し、米国内国歳入庁の個人レベルの税率データを用いて住宅ローン利子控除の恩恵を受けた者の人種差を推定する。
提案手法を実装したオープンソースソフトウェアが利用可能である。
関連論文リスト
- The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Addressing Discretization-Induced Bias in Demographic Prediction [18.427077352120254]
アーグマックスのラベル付けは、ノースカロライナ州で28.2%の差でアフリカ系アメリカ人の有権者をかなり下回っていることを示している。
このバイアスは、そのようなラベルを使用する下流タスクに重大な影響を与える可能性がある。
このバイアスを取り除くために、$textitjoint Optimization$ approach と tractable $textitdata-driven thresholding$ を導入します。
論文 参考訳(メタデータ) (2024-05-27T02:22:43Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Comment: The Essential Role of Policy Evaluation for the 2020 Census
Disclosure Avoidance System [0.0]
Boyd and Sarathy, "Differential Perspectives: Epistemic Disconnects around around the US Census Bureau's Use of Differential Privacy"
Census Disclosure Avoidance Systemの実証的な評価は、ベンチマークデータが人口数の基本的真実ではないことを認識できなかった、と我々は主張する。
データユーティリティとプライバシ保護の間には、政策立案者が重要なトレードオフに直面しなければならない、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-15T21:41:54Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Addressing Census data problems in race imputation via fully Bayesian
Improved Surname Geocoding and name supplements [0.0]
本稿では,全ベイズ改良サーネームジオコーディング(fBISG)手法を提案する。
我々は、自己申告された人種が利用可能である6つの南部州の有権者ファイルから得た、最終、第一、中の名前に関する追加データで、国勢調査の姓データを補足する。
実証実験の結果,fBISGの方法論と名称サプリメントにより,人種集団,特にアジア諸国における人種的インパクションの精度が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2022-05-12T14:41:45Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Avoiding bias when inferring race using name-based approaches [0.8543368663496084]
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
論文 参考訳(メタデータ) (2021-04-14T08:36:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Magnify Your Population: Statistical Downscaling to Augment the Spatial
Resolution of Socioeconomic Census Data [48.7576911714538]
重要社会経済的属性の詳細な推定を導出する新しい統計的ダウンスケーリング手法を提案する。
選択された社会経済変数ごとに、ランダムフォレストモデルが元の国勢調査単位に基づいて訓練され、その後、微細なグリッド化された予測を生成するために使用される。
本研究では,この手法を米国の国勢調査データに適用し,ブロック群レベルで選択された社会経済変数を,300の空間分解能のグリッドにダウンスケールする。
論文 参考訳(メタデータ) (2020-06-23T16:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。