論文の概要: Failing on Bias Mitigation: Investigating Why Predictive Models Struggle with Government Data
- arxiv url: http://arxiv.org/abs/2601.17054v1
- Date: Wed, 21 Jan 2026 13:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.100715
- Title: Failing on Bias Mitigation: Investigating Why Predictive Models Struggle with Government Data
- Title(参考訳): バイアス緩和に失敗する:予測モデルが政府のデータと干渉する理由を探る
- Authors: Hongbo Bo, Jingyu Hu, Debbie Watson, Weiru Liu,
- Abstract要約: AIをサポートする政府サービスにおける偏見と不公平性の可能性は、倫理的および法的懸念を提起する。
ブリストル市議会のデータを用いた犯罪率予測をケーススタディとして、これらの問題がいかに持続するかを検討する。
政府のデータに適用されたバイアス緩和アプローチは必ずしも有効ではない。
- 参考スコア(独自算出の注目度): 3.2794063354054965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The potential for bias and unfairness in AI-supporting government services raises ethical and legal concerns. Using crime rate prediction with the Bristol City Council data as a case study, we examine how these issues persist. Rather than auditing real-world deployed systems, our goal is to understand why widely adopted bias mitigation techniques often fail when applied to government data. Our findings reveal that bias mitigation approaches applied to government data are not always effective -- not because of flaws in model architecture or metric selection, but due to the inherent properties of the data itself. Through comparing a set of comprehensive models and fairness methods, our experiments consistently show that the mitigation efforts cannot overcome the embedded unfairness in the data -- further reinforcing that the origin of bias lies in the structure and history of government datasets. We then explore the reasons for the mitigation failures in predictive models on government data and highlight the potential sources of unfairness posed by data distribution shifts, the accumulation of historical bias, and delays in data release. We also discover the limitations of the blind spots in fairness analysis and bias mitigation methods when only targeting a single sensitive feature through a set of intersectional fairness experiments. Although this study is limited to one city, the findings are highly suggestive, which can contribute to an early warning that biases in government data may persist even with standard mitigation methods.
- Abstract(参考訳): AIをサポートする政府サービスにおける偏見と不公平性の可能性は、倫理的および法的懸念を提起する。
ブリストル市議会のデータを用いた犯罪率予測をケーススタディとして、これらの問題がいかに持続するかを検討する。
私たちのゴールは、現実のデプロイシステムの監査ではなく、広く採用されているバイアス軽減技術が政府データに適用された場合、なぜ失敗するのかを理解することです。
政府のデータに適用されたバイアス緩和アプローチは、モデルアーキテクチャやメートル法の選択に欠陥があるだけでなく、データ自体固有の性質のため、必ずしも有効ではないことが判明した。包括的モデルと公平性を比較した結果、我々の実験は、データに埋め込まれた不公平さを克服できないことが一貫して示されており、さらに、バイアスの起源が政府のデータセットの構造と履歴にあることを裏付けている。
次に、政府のデータに基づく予測モデルにおける緩和失敗の理由を考察し、データ分散シフトや過去の偏見の蓄積、データリリースの遅れによって引き起こされる不公平な要因を浮き彫りにする。
また,一組の交叉フェアネス実験により,単一感度特徴のみを対象としている場合の,フェアネス解析およびバイアス緩和法における盲点の限界も発見する。
この研究は1つの都市に限られているが、この結果は極めて示唆的であり、政府データのバイアスが標準的な緩和方法であっても持続する可能性があるという早期の警告に寄与する可能性がある。
関連論文リスト
- Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - How to be fair? A study of label and selection bias [3.018638214344819]
バイアス付きデータがバイアス付きおよび潜在的に不公平なモデルにつながることは広く受け入れられている。
データにおけるバイアスとモデル予測のためのいくつかの尺度が提案され、バイアス軽減技術が提案されている。
過去10年間に開発された無数の緩和技術にもかかわらず、どの方法が機能するかはいまだに理解されていない。
論文 参考訳(メタデータ) (2024-03-21T10:43:55Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Prisoners of Their Own Devices: How Models Induce Data Bias in
Performative Prediction [4.874780144224057]
偏見のあるモデルは、社会の特定のグループに不均等に害を与える決定を下すことができる。
多くの作業は静的ML環境での不公平さを測定することに費やされているが、動的でパフォーマンスのよい予測は行っていない。
本稿では,データのバイアスを特徴付ける分類法を提案する。
論文 参考訳(メタデータ) (2022-06-27T10:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。