論文の概要: FairDRL-ST: Disentangled Representation Learning for Fair Spatio-Temporal Mobility Prediction
- arxiv url: http://arxiv.org/abs/2508.07518v1
- Date: Mon, 11 Aug 2025 00:36:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.89448
- Title: FairDRL-ST: Disentangled Representation Learning for Fair Spatio-Temporal Mobility Prediction
- Title(参考訳): FairDRL-ST:Fair Spatio-Temporal Mobility Predictionのためのアンタングル表現学習
- Authors: Sichen Zhao, Wei Shao, Jeffrey Chan, Ziqi Xu, Flora Salim,
- Abstract要約: ディープ・テンポラル・ニューラルネットワークは、都市コンピューティングの文脈でますます活用されている。
本稿では,不整合表現学習に基づく新たなフレームワークであるFairDRL-STを提案する。
敵対的学習と非絡み合った表現学習を活用することで、フレームワークは機密情報を含む属性を分離することを学ぶ。
- 参考スコア(独自算出の注目度): 7.126500197418756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep spatio-temporal neural networks are increasingly utilised in urban computing contexts, the deployment of such methods can have a direct impact on users of critical urban infrastructure, such as public transport, emergency services, and traffic management systems. While many spatio-temporal methods focus on improving accuracy, fairness has recently gained attention due to growing evidence that biased predictions in spatio-temporal applications can disproportionately disadvantage certain demographic or geographic groups, thereby reinforcing existing socioeconomic inequalities and undermining the ethical deployment of AI in public services. In this paper, we propose a novel framework, FairDRL-ST, based on disentangled representation learning, to address fairness concerns in spatio-temporal prediction, with a particular focus on mobility demand forecasting. By leveraging adversarial learning and disentangled representation learning, our framework learns to separate attributes that contain sensitive information. Unlike existing methods that enforce fairness through supervised learning, which may lead to overcompensation and degraded performance, our framework achieves fairness in an unsupervised manner with minimal performance loss. We apply our framework to real-world urban mobility datasets and demonstrate its ability to close fairness gaps while delivering competitive predictive performance compared to state-of-the-art fairness-aware methods.
- Abstract(参考訳): 深部時空間ニューラルネットワークが都市コンピューティングの文脈でますます活用されているため、そのような手法の展開は、公共交通機関、緊急サービス、交通管理システムといった重要な都市インフラの利用者に直接的な影響を与える可能性がある。
多くの時空間的手法は精度の向上に重点を置いているが、近年、時空間的応用における偏りのある予測が人口統計学や地理的グループを不均等に不公平にし、既存の社会経済的不平等を補強し、公共サービスにおけるAIの倫理的展開を損なうという証拠の増大により、公平さが注目されている。
本稿では,不整合表現学習に基づく新しいフレームワークであるFairDRL-STを提案する。
敵対的学習と非絡み合い表現学習を活用することで,本フレームワークはセンシティブな情報を含む属性を分離することを学ぶ。
教師付き学習によって公正性を強制する既存の手法と異なり、過剰な補償や性能低下につながる可能性がある。
実世界の都市モビリティデータセットに適用し、最先端のフェアネス認識手法と比較して、競争力のある予測性能を提供しながら、フェアネスギャップを埋める能力を実証する。
関連論文リスト
- Fairness Overfitting in Machine Learning: An Information-Theoretic Perspective [28.68227117674221]
本稿では,情報理論レンズを用いたフェアネス一般化誤差の解析のための理論的枠組みを提案する。
実験結果から,様々なフェアネス認識学習アルゴリズムにまたがる境界の厳密性と実践的妥当性を検証した。
論文 参考訳(メタデータ) (2025-06-09T15:24:56Z) - Deep Fair Learning: A Unified Framework for Fine-tuning Representations with Sufficient Networks [8.616743904155419]
本研究では,十分な次元削減と深層学習を統合し,公正かつ情報的表現を構築するフレームワークを提案する。
微調整中に新たなペナルティ項を導入することにより、センシティブな属性と学習された表現との間の条件付き独立性を強制する。
提案手法は, 公平性と実用性とのバランスが良好であり, 最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-04-08T22:24:22Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Imputation Strategies Under Clinical Presence: Impact on Algorithmic Fairness [8.958956425857878]
我々は、機械学習がデータおよびデータから欠落するものにおけるバイアスを補強するリスクを論じる。
医療の欠如に対処する方法は、アルゴリズムの公正性に有害な影響を与える可能性がある。
提案手法は,命令の選択を実証的に導くためのフレームワークと,それに伴う報告フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-13T13:34:05Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Fair Representation Learning using Interpolation Enabled Disentanglement [9.043741281011304]
a) 下流タスクに対する学習された表現の有用性を確保しつつ、公平な不整合表現を同時に学べるか、(b) 提案手法が公正かつ正確であるかどうかに関する理論的知見を提供する。
前者に対応するために,補間可能外乱を用いた公正表現学習法FRIEDを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:32:12Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Learning Representations that Support Extrapolation [39.84463809100903]
我々は外挿を支援する表現を学習する上での課題について考察する。
本稿では,外挿の段階的評価を可能にする新しい視覚的類似性ベンチマークを提案する。
また、オブジェクト間の関係を強調する表現を促進するシンプルな手法である時間的文脈正規化を導入する。
論文 参考訳(メタデータ) (2020-07-09T20:53:45Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。