論文の概要: Equality of opportunity in travel behavior prediction with deep neural
networks and discrete choice models
- arxiv url: http://arxiv.org/abs/2109.12422v1
- Date: Sat, 25 Sep 2021 19:02:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:43:29.238922
- Title: Equality of opportunity in travel behavior prediction with deep neural
networks and discrete choice models
- Title(参考訳): 深層ニューラルネットワークと離散選択モデルを用いた旅行行動予測における機会の平等
- Authors: Yunhan Zheng, Shenhao Wang, Jinhua Zhao
- Abstract要約: 本研究では,旅行行動分析に重要な欠落次元である計算公正性を導入する。
まず、機会の平等によって計算公正性を運用し、次に、データ固有のバイアスと、モデリングによって導入されたバイアスを区別する。
- 参考スコア(独自算出の注目度): 3.4806267677524896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although researchers increasingly adopt machine learning to model travel
behavior, they predominantly focus on prediction accuracy, ignoring the ethical
challenges embedded in machine learning algorithms. This study introduces an
important missing dimension - computational fairness - to travel behavior
analysis. We first operationalize computational fairness by equality of
opportunity, then differentiate between the bias inherent in data and the bias
introduced by modeling. We then demonstrate the prediction disparities in
travel behavior modeling using the 2017 National Household Travel Survey (NHTS)
and the 2018-2019 My Daily Travel Survey in Chicago. Empirically, deep neural
network (DNN) and discrete choice models (DCM) reveal consistent prediction
disparities across multiple social groups: both over-predict the false negative
rate of frequent driving for the ethnic minorities, the low-income and the
disabled populations, and falsely predict a higher travel burden of the
socially disadvantaged groups and the rural populations than reality. Comparing
DNN with DCM, we find that DNN can outperform DCM in prediction disparities
because of DNN's smaller misspecification error. To mitigate prediction
disparities, this study introduces an absolute correlation regularization
method, which is evaluated with synthetic and real-world data. The results
demonstrate the prevalence of prediction disparities in travel behavior
modeling, and the disparities still persist regarding a variety of model
specifics such as the number of DNN layers, batch size and weight
initialization. Since these prediction disparities can exacerbate social
inequity if prediction results without fairness adjustment are used for
transportation policy making, we advocate for careful consideration of the
fairness problem in travel behavior modeling, and the use of bias mitigation
algorithms for fair transport decisions.
- Abstract(参考訳): 研究者たちは、旅行行動のモデル化に機械学習を採用する傾向にあるが、主に予測精度に注目し、機械学習アルゴリズムに埋め込まれた倫理的課題を無視している。
本研究では,旅行行動分析に重要な欠落次元である計算公正性を導入する。
まず機会の平等によって計算公正性を演算し、次にデータ固有のバイアスとモデリングによって導入されたバイアスを区別する。
次に,2017年の米国家計旅行調査(nhts)と2018-2019年のシカゴにおけるmy daily travel surveyを用いて,旅行行動モデルにおける予測の相違を示す。
経験的に、ディープ・ニューラル・ネットワーク(dnn)と離散的選択モデル(dcm)は、過度に予測された少数民族、低所得者、障害者の頻繁な運転率と、現実よりも社会的に不利なグループと農村の人口の移動負担を誤った予測と、複数の社会グループ間で一貫した予測の相違を明らかにする。
DNNとDCMを比較すると、DNNの誤識別誤差が小さいため、DNNは予測格差においてDCMより優れていることが分かる。
本研究では,予測格差を軽減するために,合成および実世界のデータを用いた絶対相関正則化手法を提案する。
その結果,旅行行動モデルにおける予測格差の出現率と,DNN層数,バッチサイズ,重量初期化など,モデル固有値の相違が引き続き持続していることが示唆された。
これらの予測格差は、公正性調整のない予測結果が交通政策作成に使用される場合、社会的不平等を悪化させる可能性があるため、旅行行動モデリングにおける公平性問題と公正な輸送決定のためのバイアス緩和アルゴリズムの使用について慎重に検討することを提唱する。
関連論文リスト
- The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - DemOpts: Fairness corrections in COVID-19 case prediction models [0.24999074238880484]
美術深層学習モデルの現状は、人種や民族間で大きく異なる予測誤差を出力することを示している。
本稿では,潜在的なバイアス付きデータセットに基づいてトレーニングされたディープラーニングに基づく予測モデルの公平性を高めるために,新しいデバイアス化手法であるDemOptsを提案する。
論文 参考訳(メタデータ) (2024-05-15T16:22:46Z) - A deep causal inference model for fully-interpretable travel behaviour analysis [4.378407481656902]
旅行行動の因果関係を明示的にモデル化するフレームワークである traveL behavIour analysis (CAROLINA) の深部CAusal infeRence mOdel について述べる。
この枠組みでは,人間の行動を予測するためのジェネレーティブ・カウンティカル・モデルを導入する。
本稿では、因果関係の解明、予測精度、政策介入の評価における提案モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-02T20:06:06Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Fairness-enhancing deep learning for ride-hailing demand prediction [3.911105164672852]
オンデマンド配車サービスの短期需要予測は、インテリジェント交通システムにおける基本的な問題の一つである。
これまでの旅行需要予測研究は、予測精度の改善、公平性の問題の無視に重点を置いていた。
本研究では,不利コミュニティと特権コミュニティの間の予測公平性を評価・評価・向上する方法について検討する。
論文 参考訳(メタデータ) (2023-03-10T04:37:14Z) - Travel Demand Forecasting: A Fair AI Approach [0.9383397937755517]
本研究では,公正で高精度な旅行需要予測モデルを開発するための新しい手法を提案する。
具体的には、予測精度と保護属性の相関を明示的に測定する、新しい公正規則化項を導入する。
その結果,提案手法は,予測精度を維持しつつ,複数の保護属性の公平性を効果的に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T03:16:54Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。