論文の概要: Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models
- arxiv url: http://arxiv.org/abs/2206.09875v1
- Date: Mon, 20 Jun 2022 16:27:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 12:50:43.791561
- Title: Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models
- Title(参考訳): アルゴリズムフェアネスと垂直値:IRS税監査モデルによる所得フェアネス
- Authors: Emily Black, Hadi Elzayn, Alexandra Chouldechova, Jacob Goldin, Daniel
E. Ho
- Abstract要約: 本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
- 参考スコア(独自算出の注目度): 73.24381010980606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines issues of algorithmic fairness in the context of systems
that inform tax audit selection by the United States Internal Revenue Service
(IRS). While the field of algorithmic fairness has developed primarily around
notions of treating like individuals alike, we instead explore the concept of
vertical equity -- appropriately accounting for relevant differences across
individuals -- which is a central component of fairness in many public policy
settings. Applied to the design of the U.S. individual income tax system,
vertical equity relates to the fair allocation of tax and enforcement burdens
across taxpayers of different income levels. Through a unique collaboration
with the Treasury Department and IRS, we use access to anonymized individual
taxpayer microdata, risk-selected audits, and random audits from 2010-14 to
study vertical equity in tax administration. In particular, we assess how the
use of modern machine learning methods for selecting audits may affect vertical
equity. First, we show how the use of more flexible machine learning
(classification) methods -- as opposed to simpler models -- shifts audit
burdens from high to middle-income taxpayers. Second, we show that while
existing algorithmic fairness techniques can mitigate some disparities across
income, they can incur a steep cost to performance. Third, we show that the
choice of whether to treat risk of underreporting as a classification or
regression problem is highly consequential. Moving from classification to
regression models to predict underreporting shifts audit burden substantially
toward high income individuals, while increasing revenue. Last, we explore the
role of differential audit cost in shaping the audit distribution. We show that
a narrow focus on return-on-investment can undermine vertical equity. Our
results have implications for the design of algorithmic tools across the public
sector.
- Abstract(参考訳): 本研究では、米国内国歳入庁(IRS)による税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題を検討する。
アルゴリズム的公正の分野は、主に個人と同じように扱うという概念に基づいて発展してきたが、我々は代わりに、多くの公共政策の設定において公平の中心となる、個人間の関係性の違いを適切に考慮する垂直的公平性の概念を探求する。
米国の個人所得税体系の設計に適用される垂直株式は、異なる所得水準の納税者に対する税と執行負担の公平な配分に関係している。
財務省とirsとのユニークなコラボレーションにより、匿名の個人納税者マイクロデータ、リスク選択による監査、そして2010-14年のランダム監査にアクセスして、税管理における垂直的株式について調査しています。
特に,監査選択における現代的機械学習手法の利用が,垂直的公平性にどのように影響するかを評価する。
まず、より柔軟な機械学習(分類)手法の使用が、より単純なモデルとは対照的に、監査負担を高所得者から中所得者へとシフトさせる方法を示す。
第2に,既存のアルゴリズム的公平性は収入の格差を軽減できるが,高いコストをパフォーマンスに生ずる可能性があることを示す。
第3に,報告不足のリスクを分類や回帰問題として扱うかの選択が極めて重要であることを示す。
下位報告を予測するための分類から回帰モデルへの移行は、収益を増加させながら、監査の負担を大幅に高所得個人にシフトさせる。
最後に,監査分布形成における差分監査コストの役割について検討する。
投資に対するリターンの焦点が狭いことは、垂直株式を損なう可能性がある。
この結果は,公共部門全体でのアルゴリズムツールの設計に影響を及ぼす。
関連論文リスト
- Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - A Taxation Perspective for Fair Re-ranking [61.946428892727795]
本稿では,2項目間の実用性の違いに基づいて税率を上昇させる,税率という新たな公正な再格付け手法を提案する。
我々のモデルである税ランクは、公正な優遇措置として優れた税率政策を提供し、理論的には、精度損失よりも連続性と制御性の両方を実証している。
論文 参考訳(メタデータ) (2024-04-27T08:21:29Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Integrating Reward Maximization and Population Estimation: Sequential
Decision-Making for Internal Revenue Service Audit Selection [2.2182596728059116]
我々は、新しい設定、最適化および推定された構造化バンディットを導入する。
この設定は多くの公共および民間分野のアプリケーションに固有のものである。
我々は、米国内国歳入庁の実際のデータにその重要性を示す。
論文 参考訳(メタデータ) (2022-04-25T18:28:55Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Non-Comparative Fairness for Human-Auditing and Its Relation to
Traditional Fairness Notions [1.8275108630751837]
本稿では,非比較正義の原理に基づく新たな公正概念を提案する。
比較公正性の観点から,任意のMLSを公平とみなすことができることを示す。
また、逆は個々人の公平さの文脈で真であることを示す。
論文 参考訳(メタデータ) (2021-06-29T20:05:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。