論文の概要: Can Large Language Models Trigger a Paradigm Shift in Travel Behavior Modeling? Experiences with Modeling Travel Satisfaction
- arxiv url: http://arxiv.org/abs/2505.23262v1
- Date: Thu, 29 May 2025 09:11:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.776548
- Title: Can Large Language Models Trigger a Paradigm Shift in Travel Behavior Modeling? Experiences with Modeling Travel Satisfaction
- Title(参考訳): 大規模言語モデルは旅行行動モデリングにおけるパラダイムシフトをトリガーできるか? : 旅行満足度をモデル化した経験
- Authors: Pengfei Xu, Donggen Wang,
- Abstract要約: 本研究では,上海の世帯調査から得られた旅行満足度データを用いて,大規模言語モデルと人間の行動の相違点と原因を特定する。
ゼロショットLLMは, 動作の誤りを呈し, 予測精度が比較的低いことが判明した。
小型のサンプルを用いた旅行行動モデルに適用可能なLLMに基づくモデリング手法を提案する。
- 参考スコア(独自算出の注目度): 2.2974830861901414
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As a specific domain of subjective well-being, travel satisfaction has attracted much research attention recently. Previous studies primarily use statistical models and, more recently, machine learning models to explore the determinants of travel satisfaction. Both approaches require data from sufficient sample sizes and correct prior statistical assumptions. The emergence of Large Language Models (LLMs) offers a new modeling approach that can overcome the shortcomings of the existing methods. Pre-trained on extensive datasets, LLMs have strong capabilities in contextual understanding and generalization, significantly reducing their dependence on large quantities of task-specific data and stringent statistical assumptions. The primary challenge in applying LLMs lies in addressing the behavioral misalignment between LLMs and human behavior. Using data on travel satisfaction from a household survey in shanghai, this study identifies the existence and source of misalignment and develop methods to address the misalignment issue. We find that the zero-shot LLM exhibits behavioral misalignment, resulting in relatively low prediction accuracy. However, few-shot learning, even with a limited number of samples, allows the model to outperform baseline models in MSE and MAPE metrics. This misalignment can be attributed to the gap between the general knowledge embedded in LLMs and the specific, unique characteristics of the dataset. On these bases, we propose an LLM-based modeling approach that can be applied to model travel behavior using samples of small sizes. This study highlights the potential of LLMs for modeling not only travel satisfaction but also broader aspects of travel behavior.
- Abstract(参考訳): 特定の主観的幸福の領域として、旅行満足度は近年多くの研究の注目を集めている。
これまでの研究では、主に統計モデルと、最近では、機械学習モデルを使用して、旅行満足度の決定要因を探索している。
どちらの手法も十分なサンプルサイズからのデータを必要とし、事前の統計的仮定を正す。
LLM(Large Language Models)の出現は、既存のメソッドの欠点を克服できる新しいモデリングアプローチを提供する。
広範囲なデータセットに基づいて事前訓練されたLLMは、文脈的理解と一般化において強力な能力を持ち、タスク固有の大量のデータや厳密な統計的仮定への依存を著しく低減する。
LLMを適用する上での最大の課題は、LLMと人間の行動の間の行動的不整合に対処することである。
本研究は,上海の世帯調査から得られた旅行満足度データを用いて,不整合の有無の存在と源泉を特定し,不整合問題に対処する方法を開発した。
ゼロショットLLMは, 動作の誤りを呈し, 予測精度が比較的低いことが判明した。
しかし,サンプル数が少ない場合でも,MSEやMAPEの基準モデルよりも優れた精度が得られる。
このミスアライメントは、LLMに埋め込まれた一般的な知識と、データセットの特異でユニークな特徴とのギャップに起因する可能性がある。
そこで本研究では,小サイズのサンプルを用いた旅行行動モデルに適用可能なLLMに基づくモデリング手法を提案する。
本研究は,旅行満足度だけでなく,旅行行動の幅広い側面をモデル化するLLMの可能性を強調した。
関連論文リスト
- Aligning LLM with human travel choices: a persona-based embedding learning approach [15.11130742093296]
本稿では,大規模言語モデルと人間の旅行選択行動の整合性を示す新しい枠組みを提案する。
我々のフレームワークは、パーソナ推論とロードプロセスを使用して、アライメントを強化するのに適したプロンプトでLLMを条件付けします。
論文 参考訳(メタデータ) (2025-05-25T06:54:01Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - A Foundational individual Mobility Prediction Model based on Open-Source Large Language Models [0.0]
大規模言語モデル(LLM)はドメイン固有のタスクに広く適用されている。
本稿では,基盤となるオープンソースのLCMに基づくモビリティ予測モデルをトレーニングするための,統一的な微調整フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T15:08:37Z) - Simulating and Analysing Human Survey Responses with Large Language Models: A Case Study in Energy Stated Preference [4.672157041593765]
ステートド・リセプション(SP)調査は、仮説的、潜在的に未来的なシナリオにおいて、個人がどのようにトレードオフを行うかを研究者が理解するのに役立ちます。
本研究では,エネルギー関連SP調査における消費者選択をシミュレートする大規模言語モデル (LLM) について検討した。
論文 参考訳(メタデータ) (2025-03-07T10:37:31Z) - The Inherent Limits of Pretrained LLMs: The Unexpected Convergence of Instruction Tuning and In-Context Learning Capabilities [51.594836904623534]
本研究は,インコンテキストの例を用いて誘導されるベースモデルと,命令調整モデルが根本的に異なる機能を持つかどうかを考察する。
命令調整モデルの性能は,基本モデルのコンテキスト内性能と大きく相関していることを示す。
具体的には、この理解を命令付きモデルに拡張し、事前学習データも同様に、解決可能なタスクの制限境界を設定することを示唆する。
論文 参考訳(メタデータ) (2025-01-15T10:57:55Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - LABOR-LLM: Language-Based Occupational Representations with Large Language Models [8.909328013944567]
CAREERは、キャリア履歴の関数として労働者の次の仕事を予測する。
本稿では,履歴書に基づく基礎モデルを大規模言語モデルに置き換える方法を検討する。
論文 参考訳(メタデータ) (2024-06-25T23:07:18Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。