論文の概要: Improving the Fairness of Deep-Learning, Short-term Crime Prediction with Under-reporting-aware Models
- arxiv url: http://arxiv.org/abs/2406.04382v1
- Date: Thu, 6 Jun 2024 04:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 18:39:07.963989
- Title: Improving the Fairness of Deep-Learning, Short-term Crime Prediction with Under-reporting-aware Models
- Title(参考訳): 準報告型モデルによる深層学習・短期犯罪予測の公正性向上
- Authors: Jiahui Wu, Vanessa Frias-Martinez,
- Abstract要約: 本稿では,予測公正性を高めるために2つのアプローチのパワーを組み合わせた新しいディープラーニングアーキテクチャを提案する。
提案手法は, 内処理脱バイアスモデルと比較して, 犯罪予測の公平性を向上することを示す。
- 参考スコア(独自算出の注目度): 1.1062397685574308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning crime predictive tools use past crime data and additional behavioral datasets to forecast future crimes. Nevertheless, these tools have been shown to suffer from unfair predictions across minority racial and ethnic groups. Current approaches to address this unfairness generally propose either pre-processing methods that mitigate the bias in the training datasets by applying corrections to crime counts based on domain knowledge or in-processing methods that are implemented as fairness regularizers to optimize for both accuracy and fairness. In this paper, we propose a novel deep learning architecture that combines the power of these two approaches to increase prediction fairness. Our results show that the proposed model improves the fairness of crime predictions when compared to models with in-processing de-biasing approaches and with models without any type of bias correction, albeit at the cost of reducing accuracy.
- Abstract(参考訳): ディープラーニング犯罪予測ツールは、過去の犯罪データと、将来の犯罪を予測するために追加の行動データセットを使用する。
それにもかかわらず、これらの道具は少数民族や民族の間で不公平な予測に苦しむことが示されている。
この不公平に対処するための現在のアプローチは、一般に、ドメイン知識に基づいて犯罪数に補正を適用することにより、トレーニングデータセットのバイアスを軽減する事前処理方法と、正確性と公平性の両方に最適化するために公正正則化として実装される内部処理方法のいずれかを提案する。
本稿では,これらの2つのアプローチのパワーを組み合わせて,予測公正性を高める新しいディープラーニングアーキテクチャを提案する。
提案手法は,非バイアスモデルやバイアス補正のないモデルと比較して,精度の低下を犠牲にしつつも,犯罪予測の公平性を向上することを示す。
関連論文リスト
- Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Uncertainty-Guided Enhancement on Driving Perception System via Foundation Models [37.35848849961951]
本研究では、基礎モデルを利用して既存の駆動知覚モデルから予測を洗練させる手法を開発した。
本手法では,予測精度が10~15%向上し,基礎モデルのクエリ数を50%削減する。
論文 参考訳(メタデータ) (2024-10-02T00:46:19Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Inference-Time Selective Debiasing [27.578390085427156]
モデル全体の品質向上を目的とした,推論時の安全性メカニズムである選択的デバイアス(elective debiasing)を提案する。
潜在的なバイアスのあるモデル予測を特定し、それらを捨てる代わりに、後処理のデバイアス手法であるLEACEを使ってそれらをデバイアスします。
テキスト分類データセットを用いた実験では、選択的デバイアスは、後処理方法とトレーニングと前処理のデバイアス技術の間のパフォーマンスギャップを埋めるのに役立つことが示されている。
論文 参考訳(メタデータ) (2024-07-27T21:56:23Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - When Fairness Meets Privacy: Exploring Privacy Threats in Fair Binary Classifiers via Membership Inference Attacks [17.243744418309593]
本研究では,公平度差分結果に基づく公平度向上モデルに対する効率的なMIA手法を提案する。
また、プライバシー漏洩を緩和するための潜在的戦略についても検討する。
論文 参考訳(メタデータ) (2023-11-07T10:28:17Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Travel Demand Forecasting: A Fair AI Approach [0.9383397937755517]
本研究では,公正で高精度な旅行需要予測モデルを開発するための新しい手法を提案する。
具体的には、予測精度と保護属性の相関を明示的に測定する、新しい公正規則化項を導入する。
その結果,提案手法は,予測精度を維持しつつ,複数の保護属性の公平性を効果的に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T03:16:54Z) - Perturbed and Strict Mean Teachers for Semi-supervised Semantic
Segmentation [22.5935068122522]
本稿では,平均教師モデルの拡張による一貫性学習手法の予測精度問題に対処する。
このモデルによる正確な予測により、ネットワーク、入力データ、特徴摂動の難しい組み合わせを用いて、一貫性学習の一般化を改善することができる。
ベンチマークの結果,本手法は従来のSOTA法よりも顕著に改善されていることがわかった。
論文 参考訳(メタデータ) (2021-11-25T04:30:56Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。