論文の概要: Under the Radar -- Auditing Fairness in ML for Humanitarian Mapping
- arxiv url: http://arxiv.org/abs/2108.02137v1
- Date: Wed, 4 Aug 2021 16:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 14:55:08.183654
- Title: Under the Radar -- Auditing Fairness in ML for Humanitarian Mapping
- Title(参考訳): radar --under the radar -- auditing fairness in ml for humanitarian mapping
- Authors: Lukas Kondmann, Xiao Xiang Zhu
- Abstract要約: 宇宙からの人道的マッピングアプローチが予測に偏りがあるかどうかを考察する。
本研究では、夜間光(NTL)に基づくインドにおける村レベルの貧困度と電力消費量を、線形回帰とランダムな森林を用いてマップする。
その結果,貧困は体系的に過大評価され,系統的に過小評価されていることが示唆された。
- 参考スコア(独自算出の注目度): 15.241948239953444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humanitarian mapping from space with machine learning helps policy-makers to
timely and accurately identify people in need. However, recent concerns around
fairness and transparency of algorithmic decision-making are a significant
obstacle for applying these methods in practice. In this paper, we study if
humanitarian mapping approaches from space are prone to bias in their
predictions. We map village-level poverty and electricity rates in India based
on nighttime lights (NTLs) with linear regression and random forest and analyze
if the predictions systematically show prejudice against scheduled caste or
tribe communities. To achieve this, we design a causal approach to measure
counterfactual fairness based on propensity score matching. This allows to
compare villages within a community of interest to synthetic counterfactuals.
Our findings indicate that poverty is systematically overestimated and
electricity systematically underestimated for scheduled tribes in comparison to
a synthetic counterfactual group of villages. The effects have the opposite
direction for scheduled castes where poverty is underestimated and
electrification overestimated. These results are a warning sign for a variety
of applications in humanitarian mapping where fairness issues would compromise
policy goals.
- Abstract(参考訳): 空間から機械学習による人道的マッピングは、政策立案者が必要な人をタイムリーに正確に識別するのに役立つ。
しかし、アルゴリズム的意思決定の公平性と透明性に関する最近の懸念は、これらの手法を実際に適用するための重要な障害となっている。
本稿では,空間からの人道的マッピングアプローチが予測に偏りを生じやすいかを検討する。
我々は,インドにおける村レベルの貧困と電力率を,線形回帰とランダム林を用いた夜間灯火(ntls)に基づいてマッピングし,その予測が計画されたカスや部族社会に対する偏見を体系的に示すかどうかを分析した。
そこで我々は,正当性スコアマッチングに基づく正当性評価のための因果的アプローチを設計する。
これにより、コミュニティ内の村を合成の偽物と比較することができる。
以上の結果から,貧困は体系的に過大評価され,系統的に過小評価されていることが示唆された。
この効果は、貧困が過小評価され、電化が過大評価される予定のキャストに対して反対の方向を持つ。
これらの結果は、公正な問題が政策目標を妥協する人道的マッピングにおける様々な応用に対する警告サインである。
関連論文リスト
- Fine-Grained Socioeconomic Prediction from Satellite Images with
Distributional Adjustment [14.076490368696508]
本研究では,より広い領域で観測される分布挙動を捉えることで,各衛星画像に社会経済的スコアを割り当てる手法を提案する。
我々は、順序回帰スコアモデルを訓練し、そのスコアを地域内外の共通パワー則に従うように調整する。
また, この手法は, 不均質な開発地域において, 開発途上国での利用可能性を示す。
論文 参考訳(メタデータ) (2023-08-30T12:06:04Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness and representation in satellite-based poverty maps: Evidence of
urban-rural disparities and their impacts on downstream policy [5.456665139074406]
本稿では,都市部および農村部における衛星による貧困マッピングにおける表現の格差,予測誤差の体系的バイアス,公平性の懸念について検討する。
本研究は,衛星による貧困マップを現実の政策決定に利用する前に,注意深い誤りとバイアス分析の重要性を強調した。
論文 参考訳(メタデータ) (2023-05-02T21:07:35Z) - Fairness-enhancing deep learning for ride-hailing demand prediction [3.911105164672852]
オンデマンド配車サービスの短期需要予測は、インテリジェント交通システムにおける基本的な問題の一つである。
これまでの旅行需要予測研究は、予測精度の改善、公平性の問題の無視に重点を置いていた。
本研究では,不利コミュニティと特権コミュニティの間の予測公平性を評価・評価・向上する方法について検討する。
論文 参考訳(メタデータ) (2023-03-10T04:37:14Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Metrizing Fairness [5.323439381187456]
本研究では,2つの集団集団の個人に有意な影響を及ぼす教師付き学習問題について検討した。
我々は、統計パリティ(SP)のような群フェアネス基準に関して公正な予測子を求める。
本稿では,厳密なSP制約が保証される条件を特定し,予測精度を向上させる。
論文 参考訳(メタデータ) (2022-05-30T12:28:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Predicting Livelihood Indicators from Community-Generated Street-Level
Imagery [70.5081240396352]
本稿では,クラウドソースによるストリートレベルの画像から重要な生活指標を予測するための,安価でスケーラブルで解釈可能なアプローチを提案する。
全国的に代表される世帯調査で収集した地上データと比較することにより,貧困,人口,健康の指標を正確に予測する上でのアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-06-15T18:12:12Z) - Generating Interpretable Poverty Maps using Object Detection in
Satellite Images [80.35540308137043]
衛星画像に物体検出装置を適用することにより、局所レベルでの貧困を正確に予測するための解釈可能な計算手法を実証する。
対象物の重み付けを特徴として、ウガンダの村レベルの貧困を予測する0.539 Pearson's r2を達成し、既存の(解釈不可能でない)ベンチマークよりも31%改善した。
論文 参考訳(メタデータ) (2020-02-05T02:50:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。