論文の概要: Generating Individual Travel Diaries Using Large Language Models Informed by Census and Land-Use Data
- arxiv url: http://arxiv.org/abs/2509.09710v1
- Date: Sun, 07 Sep 2025 17:03:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.835199
- Title: Generating Individual Travel Diaries Using Large Language Models Informed by Census and Land-Use Data
- Title(参考訳): 国勢調査データと土地利用データを用いた大規模言語モデルによる旅行日記の生成
- Authors: Sepehr Golrokh Amin, Devin Rhoads, Fatemeh Fakhrmoosavi, Nicholas E. Lownes, John N. Ivan,
- Abstract要約: 本研究では,エージェント・ベース・トランスポート・モデルにおいて,個々の旅行日誌を生成するための大規模言語モデルを提案する。
この方法は,オープンソースであるAmerican Community Survey (ACS) と Smart Location Database (SLD) のデータからペルソナライズし,直接的なプロンプトを通じて日記を合成する。
本研究は,コネチカット州交通研究(CSTS)日記に対して検証された4つの指標(Trip Count Score, Interval Score, Purpose Score, Mode Score)からなる新しい1対コホートリアリズムスコアを特徴とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study introduces a Large Language Model (LLM) scheme for generating individual travel diaries in agent-based transportation models. While traditional approaches rely on large quantities of proprietary household travel surveys, the method presented in this study generates personas stochastically from open-source American Community Survey (ACS) and Smart Location Database (SLD) data, then synthesizes diaries through direct prompting. This study features a novel one-to-cohort realism score: a composite of four metrics (Trip Count Score, Interval Score, Purpose Score, and Mode Score) validated against the Connecticut Statewide Transportation Study (CSTS) diaries, matched across demographic variables. The validation utilizes Jensen-Shannon Divergence to measure distributional similarities between generated and real diaries. When compared to diaries generated with classical methods (Negative Binomial for trip generation; Multinomial Logit for mode/purpose) calibrated on the validation set, LLM-generated diaries achieve comparable overall realism (LLM mean: 0.485 vs. 0.455). The LLM excels in determining trip purpose and demonstrates greater consistency (narrower realism score distribution), while classical models lead in numerical estimates of trip count and activity duration. Aggregate validation confirms the LLM's statistical representativeness (LLM mean: 0.612 vs. 0.435), demonstrating LLM's zero-shot viability and establishing a quantifiable metric of diary realism for future synthetic diary evaluation systems.
- Abstract(参考訳): 本研究では,エージェントベース交通モデルにおいて,個々の旅行日記を生成するためのLarge Language Model (LLM)方式を提案する。
従来のアプローチは多量の家庭内旅行調査に頼っているが,本研究では,オープンソースのアメリカン・コミュニティ・サーベイ(ACS)データとスマートロケーション・データベース(SLD)データから統計的にペルソナを生成し,直接的プロンプトを通じて日記を合成する。
コネチカット州交通調査(CSTS)ダイアリーに対して検証された4つの指標(Trip Count Score, Interval Score, Purpose Score, Mode Score)が、人口統計変数間で一致している。
この検証はJensen-Shannon Divergenceを用いて、生成された日記と実際の日記の間の分布の類似性を測定する。
検証セットで校正された古典的手法(旅行生成のNegative Binomial、モード/目的のMultinomial Logit、旅行生成のNegative Binomial、検証セットのMultinomial Logit)で生成された日記と比較すると、LCM生成日記は、比較可能な総合現実性(LLM平均0.485対0.455)を達成する。
LLMは旅行目的の決定に優れ、より一貫性(より狭いリアリズムスコア分布)を示す一方、古典的なモデルは旅行数と活動期間の数値的な推定を導く。
集約検証は、LCMの統計的代表性(LLMは0.612対0.435)を確認し、LCMのゼロショットの生存可能性を示し、将来の合成日記評価システムのための定量的な日記リアリズムのメートル法を確立する。
関連論文リスト
- Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - If an LLM Were a Character, Would It Know Its Own Story? Evaluating Lifelong Learning in LLMs [55.8331366739144]
大規模言語モデル(LLM)における生涯学習評価のためのベンチマークであるLIFESTATE-BENCHを紹介する。
我々の事実チェック評価は、パラメトリックと非パラメトリックの両方のアプローチで、モデルの自己認識、エピソードメモリ検索、関係追跡を探索する。
論文 参考訳(メタデータ) (2025-03-30T16:50:57Z) - Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - ProcSim: Proxy-based Confidence for Robust Similarity Learning [0.6963971634605796]
一般的なベンチマークデータセットには多くの間違ったラベルが含まれており、DMLメソッドはそれらに影響を受けやすいことを示す。
現実的なノイズの効果を研究するために、データセット内のクラスのオントロジーを作成し、それを意味論的に一貫性のあるラベル付けミスをシミュレートする。
頑健なDMLモデルをトレーニングするために,クラス代表に対して正規化距離を用いて各サンプルに信頼スコアを割り当てるフレームワークであるProcSimを提案する。
論文 参考訳(メタデータ) (2023-11-01T17:17:14Z) - Unsupervised evaluation of GAN sample quality: Introducing the TTJac
Score [5.1359892878090845]
データフリーで個々の合成画像の忠実度を測定するために「TTJac score」を提案する。
FFHQ, AFHQ-Wild, LSUN-Cars, LSUN-Horseデータセット上でのStyleGAN 2およびStyleGAN 2 ADAモデルに適用した実験結果を示す。
論文 参考訳(メタデータ) (2023-08-31T19:55:50Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z) - An Effective Meaningful Way to Evaluate Survival Models [34.21432603301076]
実際には、テストセットには検閲された個人が含まれています。
本稿では,現実的な半合成サバイバルデータセットを生成するための,新しい効果的なアプローチを提案する。
提案手法では,モデルの性能に基づいて精度の高いランク付けが可能であり,しばしば真のMAEと密接に一致している。
論文 参考訳(メタデータ) (2023-06-01T23:22:46Z) - Copula-based transferable models for synthetic population generation [1.370096215615823]
集団合成は、マイクロエージェントの標的集団の合成的かつ現実的な表現を生成することを含む。
従来の手法は、しばしばターゲットのサンプルに依存し、高いコストと小さなサンプルサイズのために制限に直面している。
本研究では,実験的辺縁分布のみが知られている対象個体群を対象とした合成データを生成するためのコプラに基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-17T23:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。