論文の概要: Applying Large Language Models to Travel Satisfaction Analysis
- arxiv url: http://arxiv.org/abs/2505.23262v2
- Date: Fri, 07 Nov 2025 14:09:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 14:53:49.4313
- Title: Applying Large Language Models to Travel Satisfaction Analysis
- Title(参考訳): 大規模言語モデルを用いた旅行満足度分析
- Authors: Pengfei Xu, Donggen Wang,
- Abstract要約: 本研究は上海で収集された家庭調査データを用いて,大言語モデル(LLM)と人間との相違点の存在と原因を特定する。
LLMは文脈的理解と一般化において強力な能力を持ち、タスク固有のデータへの依存を著しく減少させる。
小さいサンプルサイズで旅行行動のモデル化に応用できるLCMに基づくモデリング手法を提案する。
- 参考スコア(独自算出の注目度): 2.5105418815378555
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As a specific domain of subjective well-being, travel satisfaction has recently attracted much research attention. Previous studies primarily relied on statistical models and, more recently, machine learning models to explore its determinants. Both approaches,however, depend on sufficiently large sample sizes and appropriate statistical assumptions. The emergence of Large Language Models (LLMs) offers a new modeling approach that can address these limitations. Pre-trained on extensive datasets, LLMs have strongcapabilities in contextual understanding and generalization, significantly reducing their dependence on task-specific data and stringent statistical assumptions. The main challenge in applying LLMs lies in the behavioral misalignment between LLMs and humans. Using household survey data collected in Shanghai, this study identifies the existence and source of misalignment, and applies a few-shot learning method to address the misalignment issue. We find that the zero-shot LLM exhibits behavioral misalignment, leading to low prediction accuracy. With just a few samples, few-shot learning can align LLMs and enable them to outperform baseline models. Discrepancies in variable importance among machine learning model, zero-shot LLM, and few-shot LLM reveal that the misalignment arises from the gap between the general knowledge embedded in pre-trained LLMs and the specific, unique characteristics of the dataset. On these bases, we propose an LLM-based modeling approach that can be applied to model travel behavior with small sample sizes. This study highlights the potential of LLMs for modeling not only travel satisfaction but also broader aspects of travel behavior.
- Abstract(参考訳): 主観的幸福の特定の領域として、旅行満足度は近年、多くの研究の注目を集めている。
従来の研究は主に統計モデルに依存しており、最近ではその決定要因を探索するために機械学習モデルが使われている。
しかし、どちらのアプローチも十分に大きなサンプルサイズと適切な統計的仮定に依存している。
LLM(Large Language Models)の出現は、これらの制限に対処できる新しいモデリングアプローチを提供する。
広範囲なデータセットに基づいて事前訓練されたLLMは、文脈的理解と一般化において強力な能力を持ち、タスク固有のデータや厳密な統計的仮定への依存を著しく低減する。
LLMを適用する上での大きな課題は、LLMと人間の間の行動的不整合にある。
本研究は,上海で収集された世帯調査データを用いて,誤認識の存在と発生源を特定し,誤認識問題に対処するために数発の学習手法を適用した。
ゼロショットLLMは, 動作の誤りを呈し, 予測精度が低下することがわかった。
サンプルがほんの数枚あれば、LLMを調整し、ベースラインモデルを上回るパフォーマンスを実現できます。
機械学習モデル、ゼロショットLLM、および少数ショットLLM間の差異は、事前学習されたLLMに埋め込まれた一般的な知識とデータセットの特異な特徴とのギャップから生じるものであることを示す。
そこで本研究では,小さいサンプルサイズで走行挙動をモデル化するLLMに基づくモデリング手法を提案する。
本研究は,旅行満足度だけでなく,旅行行動の幅広い側面をモデル化するLLMの可能性を強調した。
関連論文リスト
- Aligning LLM with human travel choices: a persona-based embedding learning approach [15.11130742093296]
本稿では,大規模言語モデルと人間の旅行選択行動の整合性を示す新しい枠組みを提案する。
我々のフレームワークは、パーソナ推論とロードプロセスを使用して、アライメントを強化するのに適したプロンプトでLLMを条件付けします。
論文 参考訳(メタデータ) (2025-05-25T06:54:01Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - A Foundational individual Mobility Prediction Model based on Open-Source Large Language Models [0.0]
大規模言語モデル(LLM)はドメイン固有のタスクに広く適用されている。
本稿では,基盤となるオープンソースのLCMに基づくモビリティ予測モデルをトレーニングするための,統一的な微調整フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T15:08:37Z) - Simulating and Analysing Human Survey Responses with Large Language Models: A Case Study in Energy Stated Preference [4.672157041593765]
ステートド・リセプション(SP)調査は、仮説的、潜在的に未来的なシナリオにおいて、個人がどのようにトレードオフを行うかを研究者が理解するのに役立ちます。
本研究では,エネルギー関連SP調査における消費者選択をシミュレートする大規模言語モデル (LLM) について検討した。
論文 参考訳(メタデータ) (2025-03-07T10:37:31Z) - The Inherent Limits of Pretrained LLMs: The Unexpected Convergence of Instruction Tuning and In-Context Learning Capabilities [51.594836904623534]
本研究は,インコンテキストの例を用いて誘導されるベースモデルと,命令調整モデルが根本的に異なる機能を持つかどうかを考察する。
命令調整モデルの性能は,基本モデルのコンテキスト内性能と大きく相関していることを示す。
具体的には、この理解を命令付きモデルに拡張し、事前学習データも同様に、解決可能なタスクの制限境界を設定することを示唆する。
論文 参考訳(メタデータ) (2025-01-15T10:57:55Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - LABOR-LLM: Language-Based Occupational Representations with Large Language Models [8.909328013944567]
CAREERは、キャリア履歴の関数として労働者の次の仕事を予測する。
本稿では,履歴書に基づく基礎モデルを大規模言語モデルに置き換える方法を検討する。
論文 参考訳(メタデータ) (2024-06-25T23:07:18Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - CogBench: a large language model walks into a psychology lab [12.981407327149679]
本稿では,7つの認知心理学実験から得られた10の行動指標を含むベンチマークであるCogBenchを紹介する。
本稿では,CagBenchを35大言語モデル(LLM)に適用し,統計的多レベルモデリング手法を用いて解析する。
オープンソースモデルは、プロプライエタリなモデルよりもリスクが高く、コードの微調整は必ずしもLLMの振舞いを促進しない。
論文 参考訳(メタデータ) (2024-02-28T10:43:54Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。