論文の概要: Fair Spatial Indexing: A paradigm for Group Spatial Fairness
- arxiv url: http://arxiv.org/abs/2302.02306v1
- Date: Sun, 5 Feb 2023 05:15:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 19:03:53.815452
- Title: Fair Spatial Indexing: A paradigm for Group Spatial Fairness
- Title(参考訳): フェアスペースインデクシング : グループ空間フェアネスのパラダイム
- Authors: Sina Shaham, Gabriel Ghinita, Cyrus Shahabi
- Abstract要約: 機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.640563753223598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is playing an increasing role in decision-making tasks
that directly affect individuals, e.g., loan approvals, or job applicant
screening. Significant concerns arise that, without special provisions,
individuals from under-privileged backgrounds may not get equitable access to
services and opportunities. Existing research studies fairness with respect to
protected attributes such as gender, race or income, but the impact of location
data on fairness has been largely overlooked. With the widespread adoption of
mobile apps, geospatial attributes are increasingly used in ML, and their
potential to introduce unfair bias is significant, given their high correlation
with protected attributes. We propose techniques to mitigate location bias in
machine learning. Specifically, we consider the issue of miscalibration when
dealing with geospatial attributes. We focus on spatial group fairness and we
propose a spatial indexing algorithm that accounts for fairness. Our KD-tree
inspired approach significantly improves fairness while maintaining high
learning accuracy, as shown by extensive experimental results on real data.
- Abstract(参考訳): 機械学習(ML)は、個人に直接影響を及ぼす意思決定タスク、例えばローン承認、求職者スクリーニングにおいて、ますます大きな役割を果たす。
重要な懸念は、特別な規定がなければ、特権の低い背景の個人が、サービスや機会に公平にアクセスできないことである。
既存の研究では、性別、人種、収入などの保護された属性に関して公正性について研究しているが、公平性に対する位置データの影響はほとんど見過ごされてきた。
モバイルアプリの普及に伴い、地理空間属性はMLでますます使われており、保護属性と高い相関関係にあるため、不公平なバイアスをもたらす可能性も重要である。
機械学習における位置バイアスを軽減する手法を提案する。
具体的には,地理空間属性を扱う場合のミスキャリブレーションの問題を考える。
本研究では,空間群フェアネスに着目し,フェアネスを考慮した空間インデックス化アルゴリズムを提案する。
我々のKD-treeインスパイアされたアプローチは、実データに対する広範な実験結果によって示されるように、高い学習精度を維持しながら公平性を著しく向上する。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - FairJob: A Real-World Dataset for Fairness in Online Systems [2.3622884172290255]
広告における求人推薦のためのフェアネス対応データセットを提案する。
収集され、プライバシー基準とビジネス機密に準拠する準備が整った。
匿名化され、センシティブな属性のプロキシを含むにもかかわらず、データセットは予測力を保持します。
論文 参考訳(メタデータ) (2024-07-03T12:30:39Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes [18.221858247218726]
半私的な環境での公平な分類の新規かつ実践的な問題について検討する。
センシティブな属性のほとんどはプライベートであり、クリーンな属性はごくわずかである。
半原始的環境下での公正な予測を実現するための新しいフレームワークであるFairSPを提案する。
論文 参考訳(メタデータ) (2022-07-18T01:10:25Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness without the sensitive attribute via Causal Variational
Autoencoder [17.675997789073907]
EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されないことが多い。
近年の開発成果を近似推論に活用することにより,このギャップを埋めるためのアプローチを提案する。
因果グラフに基づいて、機密情報プロキシを推論するために、SRCVAEと呼ばれる新しい変分自動符号化ベースのフレームワークを利用する。
論文 参考訳(メタデータ) (2021-09-10T17:12:52Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。