論文の概要: AI-Driven Day-to-Day Route Choice
- arxiv url: http://arxiv.org/abs/2412.03338v2
- Date: Tue, 31 Dec 2024 14:57:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-03 15:05:44.224745
- Title: AI-Driven Day-to-Day Route Choice
- Title(参考訳): AI駆動の日々の経路選択
- Authors: Leizhen Wang, Peibo Duan, Zhengbing He, Cheng Lyu, Xin Chen, Nan Zheng, Li Yao, Zhenliang Ma,
- Abstract要約: LLMTravelerは過去の経験から学び、検索したデータと性格特性のバランスをとることで意思決定を行うエージェントである。
本稿では,LLMTravelerが日常の混雑ゲーム2段階を通じて人間的な意思決定を再現する能力について,体系的に評価する。
この能力は、旅行者の新しいポリシーに対する反応やネットワークの変更をシミュレートするなど、交通政策立案に有用な洞察を提供する。
- 参考スコア(独自算出の注目度): 15.934133434324755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding travelers' route choices can help policymakers devise optimal operational and planning strategies for both normal and abnormal circumstances. However, existing choice modeling methods often rely on predefined assumptions and struggle to capture the dynamic and adaptive nature of travel behavior. Recently, Large Language Models (LLMs) have emerged as a promising alternative, demonstrating remarkable ability to replicate human-like behaviors across various fields. Despite this potential, their capacity to accurately simulate human route choice behavior in transportation contexts remains doubtful. To satisfy this curiosity, this paper investigates the potential of LLMs for route choice modeling by introducing an LLM-empowered agent, "LLMTraveler." This agent integrates an LLM as its core, equipped with a memory system that learns from past experiences and makes decisions by balancing retrieved data and personality traits. The study systematically evaluates the LLMTraveler's ability to replicate human-like decision-making through two stages of day-to-day (DTD) congestion games: (1) analyzing its route-switching behavior in single origin-destination (OD) pair scenarios, where it demonstrates patterns that align with laboratory data but cannot be fully explained by traditional models, and (2) testing its capacity to model adaptive learning behaviors in multi-OD scenarios on the Ortuzar and Willumsen (OW) network, producing results comparable to Multinomial Logit (MNL) and Reinforcement Learning (RL) models. These experiments demonstrate that the framework can partially replicate human-like decision-making in route choice while providing natural language explanations for its decisions. This capability offers valuable insights for transportation policymaking, such as simulating traveler responses to new policies or changes in the network.
- Abstract(参考訳): 旅行者の経路選択を理解することは、政策立案者が正常な状況と異常な状況の両方に対して最適な運用戦略と計画戦略を考案するのに役立つ。
しかし、既存の選択モデリング手法は、しばしば事前に定義された仮定に依存し、旅行行動の動的で適応的な性質を捉えるのに苦労する。
近年、Large Language Models (LLM) は有望な代替品として登場し、様々な分野にまたがる人間のような振る舞いを再現する素晴らしい能力を示している。
この可能性にもかかわらず、輸送環境における人間の経路選択行動を正確にシミュレートする能力は疑わしいままである。
この好奇心を満たすために, LLMを利用したエージェント"LLMTraveler"を導入することにより, LLMの経路選択モデリングの可能性を検討する。
LLMをその中核として統合し、過去の経験から学習し、取得したデータと性格特性のバランスをとることで決定を行うメモリシステムを備える。
本研究は,1)単一起源決定(OD)ペアシナリオにおけるルートスイッチング動作の解析,(2)Ortuzar and Willumsen(OW)ネットワーク上での複数ODシナリオにおける適応学習行動のモデル化能力の検証,そして,MNL(Multinomial Logit)モデルとReinforcement Learning(RL)モデルに匹敵する結果を生成する。
これらの実験により、このフレームワークは、経路選択において人間のような意思決定を部分的に再現し、その決定に対して自然言語による説明を提供することが実証された。
この能力は、旅行者の新しいポリシーに対する反応やネットワークの変更をシミュレートするなど、交通政策立案に有用な洞察を提供する。
関連論文リスト
- CHARMS: A Cognitive Hierarchical Agent for Reasoning and Motion Stylization in Autonomous Driving [7.672737334176452]
本稿では,共振・運動スティリゼーションのための認知階層的エージェントを提案する。
CHARMSは、強化学習事前訓練と教師付き微調整を含む2段階のトレーニングパイプラインを通じて、人間に似た推論パターンをキャプチャする。
インテリジェントな運転決定をエゴ車として行い、環境車両として多様な現実的な運転シナリオを生成することができる。
論文 参考訳(メタデータ) (2025-04-03T10:15:19Z) - Analyzing sequential activity and travel decisions with interpretable deep inverse reinforcement learning [11.791625302942418]
本稿では,行動トラバー決定過程を解析するための解釈可能なDIRLフレームワークを提案する。
提案手法は,活動トラバー行動の報酬と政策関数を推定するために,逆IRLアプローチに適応する。
実世界の旅行調査データを分析したところ、2つの重要な領域で有望な結果が得られた。
論文 参考訳(メタデータ) (2025-03-17T02:54:02Z) - Dynamic Path Navigation for Motion Agents with LLM Reasoning [69.5875073447454]
大規模言語モデル(LLM)は、強力な一般化可能な推論と計画能力を示している。
本研究では,LLMのゼロショットナビゲーションと経路生成機能について,データセットの構築と評価プロトコルの提案により検討する。
このようなタスクが適切に構成されている場合、現代のLCMは、目標に到達するために生成された動きでナビゲーションを自律的に精錬しながら障害を回避するためのかなりの計画能力を示す。
論文 参考訳(メタデータ) (2025-03-10T13:39:09Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Enhancing Travel Choice Modeling with Large Language Models: A Prompt-Learning Approach [6.913791588789051]
本稿では,予測精度を大幅に向上させ,個々の予測に対して明確な説明を提供する,プロンプト学習に基づく大規模言語モデル(LLM)フレームワークを提案する。
スイスで収集されたLondon Passenger Mode Choice(LPMC)とOptima-Mode(Optima-Mode)の2つの選択肢データセットを用いて,フレームワークの有効性を検証した。
その結果,LLMは人々の選択を予測する上で,最先端のディープラーニング手法や個別選択モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-06-19T13:46:08Z) - Probing Multimodal LLMs as World Models for Driving [72.18727651074563]
自律運転におけるMLLM(Multimodal Large Language Models)の適用について検討する。
GPT-4oのようなモデルの開発は進んでいるが、複雑な運転環境における性能は未解明のままである。
論文 参考訳(メタデータ) (2024-05-09T17:52:42Z) - Large Language Models for Travel Behavior Prediction [8.069026355648049]
我々は,大規模言語モデルを用いて,データに基づくパラメータ学習を必要とせずに,迅速なエンジニアリングで旅行行動を予測することを提案する。
具体的には,1)タスク記述,2)旅行特性,3)個人属性,および4)ドメイン知識による思考のガイドなど,私たちのプロンプトを慎重に設計する。
その結果、トレーニングサンプルは提供されていないが、LLMに基づく予測は競争精度が高く、F1スコアは標準教師あり学習法であることがわかった。
論文 参考訳(メタデータ) (2023-11-30T04:35:55Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Model-Based Reinforcement Learning with Multi-Task Offline Pretraining [59.82457030180094]
本稿では,オフラインデータから新しいタスクへ,潜在的に有用なダイナミックスや動作デモを伝達するモデルベースRL法を提案する。
主な考え方は、世界モデルを行動学習のシミュレーターとしてだけでなく、タスクの関連性を測定するツールとして使うことである。
本稿では,Meta-WorldとDeepMind Control Suiteの最先端手法と比較して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-06-06T02:24:41Z) - NeurIPS 2022 Competition: Driving SMARTS [60.948652154552136]
ドライビングSMARTSは、動的相互作用コンテキストにおける分散シフトに起因する問題に対処するために設計された定期的な競争である。
提案するコンペティションは,強化学習(RL)やオフライン学習など,方法論的に多様なソリューションをサポートする。
論文 参考訳(メタデータ) (2022-11-14T17:10:53Z) - Deep Inverse Reinforcement Learning for Route Choice Modeling [0.6853165736531939]
経路選択モデリングは交通計画と需要予測の基本的な課題である。
本研究では,リンクベース経路選択モデルのための一般的な逆強化学習(IRL)フレームワークを提案する。
中国上海のタクシーGPSデータに基づく実験結果から,提案モデルの性能改善を検証した。
論文 参考訳(メタデータ) (2022-06-18T06:33:06Z) - Explaining Conditions for Reinforcement Learning Behaviors from Real and
Imagined Data [3.3517146652431378]
本稿では,課題実行戦略や成果に繋がる経験的条件を識別する,人間解釈可能な抽象行動モデルを生成する手法を提案する。
提案手法は、状態表現から経験的特徴を抽出し、トラジェクトリから戦略記述子を抽象化し、解釈可能な決定木を訓練する。
本稿では,環境との相互作用から生成された軌道データと,モデルに基づくRL設定において,学習された確率的世界モデルから得られた軌道データについて述べる。
論文 参考訳(メタデータ) (2020-11-17T23:40:47Z) - Counterfactual Vision-and-Language Navigation via Adversarial Path Sampling [65.99956848461915]
VLN(Vision-and-Language Navigation)は、エージェントが目標を達成するために3D環境を移動する方法を決定するタスクである。
VLNタスクの問題点の1つは、対話型環境において、人間に注釈を付けた指示で十分なナビゲーションパスを収集することは困難であるため、データの不足である。
本稿では,低品質な拡張データではなく,効果的な条件を考慮可能な,対向駆動の反実的推論モデルを提案する。
論文 参考訳(メタデータ) (2019-11-17T18:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。