論文の概要: Spatial Fairness: The Case for its Importance, Limitations of Existing Work, and Guidelines for Future Research
- arxiv url: http://arxiv.org/abs/2403.14040v1
- Date: Wed, 20 Mar 2024 23:36:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 17:49:40.555142
- Title: Spatial Fairness: The Case for its Importance, Limitations of Existing Work, and Guidelines for Future Research
- Title(参考訳): 空間フェアネス--その重要性、既存の仕事の限界、今後の研究ガイドライン
- Authors: Nripsuta Ani Saxena, Wenbin Zhang, Cyrus Shahabi,
- Abstract要約: ロケーションは、住宅ローンや保険など、多くの敏感なドメインで使われている意思決定システムでますます使われている。
それにもかかわらず、非差別法で保護されていると見なされる特徴と位置の相関から生じる不公平さにはほとんど注意が払われていない。
本論では, 位置と保護特性との相関により, 継続する害を概説することにより, 位置に対する公平性を考える必要があることを論じる。
- 参考スコア(独自算出の注目度): 5.908777127730138
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Despite location being increasingly used in decision-making systems employed in many sensitive domains such as mortgages and insurance, astonishingly little attention has been paid to unfairness that may seep in due to the correlation of location with characteristics considered protected under anti-discrimination law, such as race or national origin. This position paper argues for the urgent need to consider fairness with respect to location, termed \textit{spatial fairness}, by outlining the harms that continue to be perpetuated due to location's correlation with protected characteristics. This interdisciplinary work connects knowledge from fields such as public policy, economic development, and geography to highlight how fair-AI research currently falls short of correcting for spatial biases, and does not consider challenges unique to spatial data. Furthermore, we identify limitations of the handful of spatial fairness work proposed so far, and finally, detail guidelines for future research so subsequent work may avoid such issues and help correct spatial biases.
- Abstract(参考訳): 住宅ローンや保険など多くのデリケートなドメインで採用されている意思決定システムでは位置がますます使われているが、人種や民族起源などの差別防止法で保護されていると考えられる特徴と位置の相関関係から生じる不公平さには驚くほど注意が払われていない。
このポジションペーパーは、位置と保護された特徴との相関により持続する害を概説することにより、位置に関する公平性を考える緊急の必要性を論じている。
この学際的な研究は、公共政策、経済発展、地理などの分野からの知識を結びつけ、現在フェアAI研究が空間バイアスの補正に不足している点を強調し、空間データに固有の課題を考慮しない。
さらに,現在提案されている空間的公正性作業の限界を識別し,今後の研究のガイドラインを詳述し,今後の課題を回避し,空間的偏見の補正に役立てることができる。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Geospatial Disparities: A Case Study on Real Estate Prices in Paris [0.3495246564946556]
地理空間データから生じるバイアスを識別・緩和するためのツールキットを提案する。
空間的属性を持つ順序回帰ケースを2次分類の焦点から逸脱する。
本手法を概説し,本手法の実践的応用を実証し,公正度と校正対策のための地理的集約レベルを選択することの意味を精査する。
論文 参考訳(メタデータ) (2024-01-29T14:53:14Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Here Is Not There: Measuring Entailment-Based Trajectory Similarity for
Location-Privacy Protection and Beyond [6.845802123943598]
本稿では,論理的エンテーメントを利用した測度を導入することにより,軌道類似性に関する新たな見解を示す。
これは、事実を、旅行が行われる社会的・環境的な文脈から導かれる三つの言明とみなす推論的な視点である。
本稿では,空間的関係文である事象の重なり合う割合として測定された包含に基づく軌道類似性の形式化を提案する。
論文 参考訳(メタデータ) (2023-12-02T14:41:01Z) - Auditing for Spatial Fairness [5.048742886625779]
保護属性が位置にあるときのアルゴリズム的公正性について検討する。
アルゴリズムフェアネスの確立された概念と同様に、空間フェアネスは位置から結果が統計的に独立していると定義する。
論文 参考訳(メタデータ) (2023-02-23T20:56:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。