論文の概要: FairTP: A Prolonged Fairness Framework for Traffic Prediction
- arxiv url: http://arxiv.org/abs/2412.16214v1
- Date: Wed, 18 Dec 2024 01:17:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:57:16.754551
- Title: FairTP: A Prolonged Fairness Framework for Traffic Prediction
- Title(参考訳): FairTP: 交通予測のための長期的公正フレームワーク
- Authors: Jiangnan Xia, Yu Yang, Jiaxing Shen, Senzhang Wang, Jiannong Cao,
- Abstract要約: 交通予測はインテリジェント交通システムにおいて重要な役割を担っている。
現在の公正性を意識した機械学習モデルは、特定の時点においてのみ公平性を保証する。
本稿では,長期の公正交通予測のためのフレームワークであるFairTPを提案する。
- 参考スコア(独自算出の注目度): 25.58071817217648
- License:
- Abstract: Traffic prediction plays a crucial role in intelligent transportation systems. Existing approaches primarily focus on improving overall accuracy, often neglecting a critical issue: whether predictive models lead to biased decisions by transportation authorities. In practice, the uneven deployment of traffic sensors across urban areas results in imbalanced data, causing prediction models to perform poorly in certain regions and leading to unfair decision-making. This imbalance ultimately harms the equity and quality of life for residents. Moreover, current fairness-aware machine learning models only ensure fairness at specific time points, failing to maintain fairness over extended periods. As traffic conditions change, such static fairness approaches become ineffective. To address this gap, we propose FairTP, a framework for prolonged fair traffic prediction. We introduce two new fairness definitions tailored for dynamic traffic scenarios. Fairness in traffic prediction is not static; it varies over time and across regions. Each sensor or urban area can alternate between two states: "sacrifice" (low prediction accuracy) and "benefit" (high prediction accuracy). Prolonged fairness is achieved when the overall states of sensors remain similar over a given period. We define two types of fairness: region-based static fairness and sensor-based dynamic fairness. To implement this, FairTP incorporates a state identification module to classify sensors' states as either "sacrifice" or "benefit," enabling prolonged fairness-aware predictions. Additionally, we introduce a state-guided balanced sampling strategy to further enhance fairness, addressing performance disparities among regions with uneven sensor distributions. Extensive experiments on two real-world datasets demonstrate that FairTP significantly improves prediction fairness while minimizing accuracy degradation.
- Abstract(参考訳): 交通予測はインテリジェント交通システムにおいて重要な役割を担っている。
既存のアプローチは主に全体的な正確性の改善に重点を置いており、しばしば重要な問題を無視している。
実際には、都市部における交通センサの不均一な展開は、不均衡なデータをもたらし、特定の地域で予測モデルの性能が低下し、不公平な意思決定につながる。
この不均衡は最終的に住民の生活の平等と質を損なう。
さらに、現在のフェアネス対応機械学習モデルは、特定の時点においてのみフェアネスを保証し、長期にわたってフェアネスを維持することができない。
交通条件が変わると、このような静的公正なアプローチは効果がなくなる。
このギャップに対処するため,FairTPを提案する。
動的トラフィックシナリオに適した2つの新しいフェアネス定義を導入する。
交通予測の公平性は静的ではなく、時間と地域によって異なる。
各センサまたは都市部は、"サクリフ"(低い予測精度)と"ベネフィット"(高い予測精度)の2つの状態の間で交互に切り替えることができる。
センサーの全体状態が一定期間にわたって類似し続けると、長期間の公正性が達成される。
領域ベース静的フェアネスとセンサベース動的フェアネスの2種類を定義した。
これを実装するために、FairTPは状態識別モジュールを組み込んで、センサーの状態を「サクリフ」または「ベネフィット」のどちらかとして分類し、長期間の公正を意識した予測を可能にする。
さらに,不均一なセンサ分布を持つ領域間の性能格差に対処し,公平性を高めるための状態誘導型バランスサンプリング戦略を導入する。
2つの実世界のデータセットに対する大規模な実験により、FairTPは精度の劣化を最小限に抑えながら予測公正性を著しく改善することを示した。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness-enhancing deep learning for ride-hailing demand prediction [3.911105164672852]
オンデマンド配車サービスの短期需要予測は、インテリジェント交通システムにおける基本的な問題の一つである。
これまでの旅行需要予測研究は、予測精度の改善、公平性の問題の無視に重点を置いていた。
本研究では,不利コミュニティと特権コミュニティの間の予測公平性を評価・評価・向上する方法について検討する。
論文 参考訳(メタデータ) (2023-03-10T04:37:14Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair When Trained, Unfair When Deployed: Observable Fairness Measures
are Unstable in Performative Prediction Settings [0.0]
性能予測設定では、予測器は正確に分布シフトを誘導することを意図している。
刑事司法、医療、消費者金融において、予測器を構築する目的は、有害な結果の率を減らすことである。
観測可能な結果ではなく、事実に依存した公平性の定義を用いることで、これらの問題の何つが避けられるかを示す。
論文 参考訳(メタデータ) (2022-02-10T14:09:02Z) - Prediction Sensitivity: Continual Audit of Counterfactual Fairness in
Deployed Classifiers [2.0625936401496237]
従来のグループフェアネスのメトリクスは個人に対する差別を見逃しかねず、デプロイ後に適用するのが困難である。
本稿では,デプロイされた分類器における対実的公正性の連続的な監査手法である予測感度について述べる。
実証実験の結果,予測感度は反実的公正さの違反を検出するのに有効であることが示された。
論文 参考訳(メタデータ) (2022-02-09T15:06:45Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。