論文の概要: AI-Driven Day-to-Day Route Choice
- arxiv url: http://arxiv.org/abs/2412.03338v1
- Date: Wed, 04 Dec 2024 14:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:09:34.025714
- Title: AI-Driven Day-to-Day Route Choice
- Title(参考訳): AI駆動の日々の経路選択
- Authors: Leizhen Wang, Peibo Duan, Zhengbing He, Cheng Lyu, Xin Chen, Nan Zheng, Li Yao, Zhenliang Ma,
- Abstract要約: LLMTravelerは過去の経験から学び、検索したデータと性格特性のバランスをとることで意思決定を行うエージェントである。
このフレームワークは、人のような意思決定を経路選択で部分的に再現し、その決定のために自然言語の説明を提供する。
この能力は、新しいポリシーやネットワークの変更をシミュレートするなど、交通政策立案に有用な洞察を提供する。
- 参考スコア(独自算出の注目度): 15.934133434324755
- License:
- Abstract: Understanding travelers' route choices can help policymakers devise optimal operational and planning strategies for both normal and abnormal circumstances. However, existing choice modeling methods often rely on predefined assumptions and struggle to capture the dynamic and adaptive nature of travel behavior. Recently, Large Language Models (LLMs) have emerged as a promising alternative, demonstrating remarkable ability to replicate human-like behaviors across various fields. Despite this potential, their capacity to accurately simulate human route choice behavior in transportation contexts remains doubtful. To satisfy this curiosity, this paper investigates the potential of LLMs for route choice modeling by introducing an LLM-empowered agent, "LLMTraveler." This agent integrates an LLM as its core, equipped with a memory system that learns from past experiences and makes decisions by balancing retrieved data and personality traits. The study systematically evaluates the LLMTraveler's ability to replicate human-like decision-making through two stages: (1) analyzing its route-switching behavior in single origin-destination (OD) pair congestion game scenarios, where it demonstrates patterns align with laboratory data but are not fully explained by traditional models, and (2) testing its capacity to model day-to-day (DTD) adaptive learning behaviors on the Ortuzar and Willumsen (OW) network, producing results comparable to Multinomial Logit (MNL) and Reinforcement Learning (RL) models. These experiments demonstrate that the framework can partially replicate human-like decision-making in route choice while providing natural language explanations for its decisions. This capability offers valuable insights for transportation policymaking, such as simulating traveler responses to new policies or changes in the network.
- Abstract(参考訳): 旅行者の経路選択を理解することは、政策立案者が正常な状況と異常な状況の両方に対して最適な運用戦略と計画戦略を考案するのに役立つ。
しかし、既存の選択モデリング手法は、しばしば事前に定義された仮定に依存し、旅行行動の動的で適応的な性質を捉えるのに苦労する。
近年、Large Language Models (LLM) は有望な代替品として登場し、様々な分野にまたがる人間のような振る舞いを再現する素晴らしい能力を示している。
この可能性にもかかわらず、輸送環境における人間の経路選択行動を正確にシミュレートする能力は疑わしいままである。
この好奇心を満たすために, LLMを利用したエージェント"LLMTraveler"を導入することにより, LLMの経路選択モデリングの可能性を検討する。
LLMをその中核として統合し、過去の経験から学習し、取得したデータと性格特性のバランスをとることで決定を行うメモリシステムを備える。
本研究は,LLMTraveler が人間のような意思決定を再現する能力について,(1) 単一起点決定(OD)ペアで経路変更動作を解析し,実験データに整合するパターンを実証するが,従来のモデルでは十分に説明できない,(2) オルトゥザーとウィルムセン(OW) ネットワーク上での適応学習行動のモデル化能力をテストする,という2つの段階を通じて体系的に評価し,マルチノミアル・ロジット(MNL) と強化学習(RL) モデルに匹敵する結果を得た。
これらの実験により、このフレームワークは、経路選択において人間のような意思決定を部分的に再現し、その決定に対して自然言語による説明を提供することが実証された。
この能力は、旅行者の新しいポリシーに対する反応やネットワークの変更をシミュレートするなど、交通政策立案に有用な洞察を提供する。
関連論文リスト
- Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Enhancing Travel Choice Modeling with Large Language Models: A Prompt-Learning Approach [6.913791588789051]
本稿では,予測精度を大幅に向上させ,個々の予測に対して明確な説明を提供する,プロンプト学習に基づく大規模言語モデル(LLM)フレームワークを提案する。
スイスで収集されたLondon Passenger Mode Choice(LPMC)とOptima-Mode(Optima-Mode)の2つの選択肢データセットを用いて,フレームワークの有効性を検証した。
その結果,LLMは人々の選択を予測する上で,最先端のディープラーニング手法や個別選択モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-06-19T13:46:08Z) - Large Language Models for Travel Behavior Prediction [8.069026355648049]
我々は,大規模言語モデルを用いて,データに基づくパラメータ学習を必要とせずに,迅速なエンジニアリングで旅行行動を予測することを提案する。
具体的には,1)タスク記述,2)旅行特性,3)個人属性,および4)ドメイン知識による思考のガイドなど,私たちのプロンプトを慎重に設計する。
その結果、トレーニングサンプルは提供されていないが、LLMに基づく予測は競争精度が高く、F1スコアは標準教師あり学習法であることがわかった。
論文 参考訳(メタデータ) (2023-11-30T04:35:55Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - NeurIPS 2022 Competition: Driving SMARTS [60.948652154552136]
ドライビングSMARTSは、動的相互作用コンテキストにおける分散シフトに起因する問題に対処するために設計された定期的な競争である。
提案するコンペティションは,強化学習(RL)やオフライン学習など,方法論的に多様なソリューションをサポートする。
論文 参考訳(メタデータ) (2022-11-14T17:10:53Z) - Deep Inverse Reinforcement Learning for Route Choice Modeling [0.6853165736531939]
経路選択モデリングは交通計画と需要予測の基本的な課題である。
本研究では,リンクベース経路選択モデルのための一般的な逆強化学習(IRL)フレームワークを提案する。
中国上海のタクシーGPSデータに基づく実験結果から,提案モデルの性能改善を検証した。
論文 参考訳(メタデータ) (2022-06-18T06:33:06Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Explaining Conditions for Reinforcement Learning Behaviors from Real and
Imagined Data [3.3517146652431378]
本稿では,課題実行戦略や成果に繋がる経験的条件を識別する,人間解釈可能な抽象行動モデルを生成する手法を提案する。
提案手法は、状態表現から経験的特徴を抽出し、トラジェクトリから戦略記述子を抽象化し、解釈可能な決定木を訓練する。
本稿では,環境との相互作用から生成された軌道データと,モデルに基づくRL設定において,学習された確率的世界モデルから得られた軌道データについて述べる。
論文 参考訳(メタデータ) (2020-11-17T23:40:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。