論文の概要: Machine Learning Fairness in House Price Prediction: A Case Study of America's Expanding Metropolises
- arxiv url: http://arxiv.org/abs/2505.01591v1
- Date: Fri, 02 May 2025 21:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.185781
- Title: Machine Learning Fairness in House Price Prediction: A Case Study of America's Expanding Metropolises
- Title(参考訳): 住宅価格予測における機械学習フェアネス : アメリカの拡大する都市圏を事例として
- Authors: Abdalwahab Almajed, Maryam Tabar, Peyman Najafirad,
- Abstract要約: 本稿では,構造的属性と近傍属性を組み合わせた機械学習モデルについて述べる。
特権群の様々な定義の下で、MLモデルの公正性に関する包括的な評価を行う。
異なるバイアス緩和ソリューションの性能について検討する。
- 参考スコア(独自算出の注目度): 4.4701415309453285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a basic human need, housing plays a key role in enhancing health, well-being, and educational outcome in society, and the housing market is a major factor for promoting quality of life and ensuring social equity. To improve the housing conditions, there has been extensive research on building Machine Learning (ML)-driven house price prediction solutions to accurately forecast the future conditions, and help inform actions and policies in the field. In spite of their success in developing high-accuracy models, there is a gap in our understanding of the extent to which various ML-driven house price prediction approaches show ethnic and/or racial bias, which in turn is essential for the responsible use of ML, and ensuring that the ML-driven solutions do not exacerbate inequity. To fill this gap, this paper develops several ML models from a combination of structural and neighborhood-level attributes, and conducts comprehensive assessments on the fairness of ML models under various definitions of privileged groups. As a result, it finds that the ML-driven house price prediction models show various levels of bias towards protected attributes (i.e., race and ethnicity in this study). Then, it investigates the performance of different bias mitigation solutions, and the experimental results show their various levels of effectiveness on different ML-driven methods. However, in general, the in-processing bias mitigation approach tends to be more effective than the pre-processing one in this problem domain. Our code is available at https://github.com/wahab1412/housing_fairness.
- Abstract(参考訳): ベーシックな人的ニーズとして、住宅は社会における健康、幸福、教育の成果を高める上で重要な役割を担い、住宅市場は生活の質を増進し、社会的平等を確保するための主要な要因である。
住宅環境を改善するため,機械学習(ML)による住宅価格予測ソリューションの構築や,今後の状況を正確に予測し,現場での行動や政策の把握に役立てる研究が盛んに行われている。
高い精度のモデルの開発に成功したにもかかわらず、さまざまなML駆動の住宅価格予測手法が民族的および/または人種的偏見を示し、それがMLの責任ある使用に不可欠であり、ML駆動のソリューションが不平等を悪化させないことを保証するという、私たちの理解にギャップがある。
このギャップを埋めるために、構造的属性と近傍属性を組み合わせたMLモデルを開発し、特権群の様々な定義の下でMLモデルの公平性に関する包括的評価を行う。
その結果、ML主導の住宅価格予測モデルでは、保護された属性(この研究では人種と民族)に対する様々なレベルの偏りが示されることがわかった。
次に, 異なるバイアス緩和法の性能について検討し, 実験結果から, 異なるML駆動方式における各種の有効性が示された。
しかし、一般に、プロセス内バイアス緩和法は、この問題領域における前処理法よりも効果的である傾向にある。
私たちのコードはhttps://github.com/wahab1412/housing_fairness.comで利用可能です。
関連論文リスト
- Social Debiasing for Fair Multi-modal LLMs [55.8071045346024]
MLLM(Multi-modal Large Language Models)は、強力な視覚言語理解機能を提供する。
しかしながら、これらのモデルはトレーニングデータセットから深刻な社会的偏見を継承することが多く、人種や性別といった属性に基づいた不公平な予測につながります。
本稿では,MLLMにおける社会的バイアスの問題に対処する。i)多元的社会的概念(CMSC)を用いた包括的対実的データセットの導入,i)アンチステレオタイプデバイアス戦略(ASD)を提案する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Uncertainty-based Fairness Measures [14.61416119202288]
機械学習(ML)モデルの異常予測は、現実の環境で広く受け入れられることを妨げる。
本稿では,MLモデルが既存の点ベース公正度尺度と同等であるように見えるが,予測の不確実性の観点からは人口集団に偏っていることを示す。
論文 参考訳(メタデータ) (2023-12-18T15:49:03Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Fairness and bias correction in machine learning for depression
prediction: results from four study populations [3.3136009643108038]
本稿では,うつ病の予測を目的とした機械学習モデルにおけるバイアスの体系的研究について述べる。
標準MLアプローチは、定期的にバイアスのある振る舞いを示す。
また、標準法と自己のポストホック法の両方による緩和技術は、不公平なバイアスのレベルを低減するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-11-10T03:53:17Z) - Statistical inference for individual fairness [24.622418924551315]
機械学習モデルにおける個々人の公平性の違反を検出する問題に注目する。
我々は,対向コスト関数のための一連の推論ツールを開発した。
実世界のケーススタディでツールの有用性を実証します。
論文 参考訳(メタデータ) (2021-03-30T22:49:25Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。