論文の概要: Large Language Models for Travel Behavior Prediction
- arxiv url: http://arxiv.org/abs/2312.00819v1
- Date: Thu, 30 Nov 2023 04:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 20:52:28.111461
- Title: Large Language Models for Travel Behavior Prediction
- Title(参考訳): 旅行行動予測のための大規模言語モデル
- Authors: Baichuan Mo, Hanyong Xu, Dingyi Zhuang, Ruoyun Ma, Xiaotong Guo,
Jinhua Zhao
- Abstract要約: 我々は,大規模言語モデルを用いて,データに基づくパラメータ学習を必要とせずに,迅速なエンジニアリングで旅行行動を予測することを提案する。
具体的には,1)タスク記述,2)旅行特性,3)個人属性,および4)ドメイン知識による思考のガイドなど,私たちのプロンプトを慎重に設計する。
その結果、トレーニングサンプルは提供されていないが、LLMに基づく予測は競争精度が高く、F1スコアは標準教師あり学習法であることがわかった。
- 参考スコア(独自算出の注目度): 8.069026355648049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Travel behavior prediction is a fundamental task in transportation demand
management. The conventional methods for travel behavior prediction rely on
numerical data to construct mathematical models and calibrate model parameters
to represent human preferences. Recent advancement in large language models
(LLMs) has shown great reasoning abilities to solve complex problems. In this
study, we propose to use LLMs to predict travel behavior with prompt
engineering without data-based parameter learning. Specifically, we carefully
design our prompts that include 1) task description, 2) travel characteristics,
3) individual attributes, and 4) guides of thinking with domain knowledge, and
ask the LLMs to predict an individual's travel behavior and explain the
results. We select the travel mode choice task as a case study. Results show
that, though no training samples are provided, LLM-based predictions have
competitive accuracy and F1-score as canonical supervised learning methods such
as multinomial logit, random forest, and neural networks. LLMs can also output
reasons that support their prediction. However, though in most of the cases,
the output explanations are reasonable, we still observe cases that violate
logic or with hallucinations.
- Abstract(参考訳): 旅行行動予測は交通需要管理の基本的な課題である。
従来の旅行行動予測法は、数理モデルを構築し、人間の好みを表すモデルパラメータを校正するために数値データに依存する。
大規模言語モデル(LLM)の最近の進歩は、複雑な問題を解く大きな推論能力を示している。
本研究では,データに基づくパラメータ学習を必要とせず,迅速なエンジニアリングによる旅行行動の予測にLLMを用いることを提案する。
具体的には プロンプトを慎重に設計し
1)タスク記述。
2)旅行の特徴
3)個々の属性、および
4) ドメイン知識による思考のガイドを行い, LLMに個人の旅行行動の予測と結果の説明を依頼する。
我々は,旅行モード選択タスクをケーススタディとして選択する。
その結果、トレーニングサンプルは提供されていないが、llmベースの予測は競合精度があり、多項ロジット、ランダムフォレスト、ニューラルネットワークなどの標準教師付き学習方法としてf1-scoreが用いられる。
LLMは予測をサポートする理由を出力することもできる。
しかし、ほとんどの場合、アウトプットの説明は妥当であるが、論理に反するケースや幻覚を伴うケースは依然として観察されている。
関連論文リスト
- Predicting Emergent Capabilities by Finetuning [98.9684114851891]
微調整された言語モデルでは,出現頻度の低いモデルに展開するスケーリングのポイントをシフトできることがわかった。
提案手法は4つの標準NLPベンチマークを用いて検証する。
いくつかのケースでは、最大4倍の計算でトレーニングされたモデルが出現したかどうかを正確に予測できる。
論文 参考訳(メタデータ) (2024-11-25T01:48:09Z) - What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Unforgettable Generalization in Language Models [46.98652406155007]
乱数ラベルの微調整によってタスクが忘れられた言語モデル(LM)の挙動について検討する。
しかしながら、タスク全体において、LM予測がトレーニングセット外の例で変化するかどうかにおいて、極めて可変性を示す。
論文 参考訳(メタデータ) (2024-09-03T18:55:54Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Enhancing Travel Choice Modeling with Large Language Models: A Prompt-Learning Approach [6.913791588789051]
本稿では,予測精度を大幅に向上させ,個々の予測に対して明確な説明を提供する,プロンプト学習に基づく大規模言語モデル(LLM)フレームワークを提案する。
スイスで収集されたLondon Passenger Mode Choice(LPMC)とOptima-Mode(Optima-Mode)の2つの選択肢データセットを用いて,フレームワークの有効性を検証した。
その結果,LLMは人々の選択を予測する上で,最先端のディープラーニング手法や個別選択モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-06-19T13:46:08Z) - LLM Processes: Numerical Predictive Distributions Conditioned on Natural Language [35.84181171987974]
我々のゴールは、数値データを処理し、任意の場所で確率的予測を行うレグレッションモデルを構築することである。
まず、大規模言語モデルから明示的で一貫性のある数値予測分布を抽出する戦略を探求する。
本研究では,テキストを数値予測に組み込む能力を示し,予測性能を改善し,定性的な記述を反映した定量的な構造を与える。
論文 参考訳(メタデータ) (2024-05-21T15:13:12Z) - Where Would I Go Next? Large Language Models as Human Mobility
Predictors [21.100313868232995]
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-29T10:24:23Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - Learning from the Best: Rationalizing Prediction by Adversarial
Information Calibration [39.685626118667074]
2つのモデルを共同でトレーニングする。1つは手前のタスクを正確だがブラックボックスな方法で解く典型的なニューラルモデルであり、もう1つはセレクタ-予測モデルであり、予測の根拠も生み出す。
両モデルから抽出した情報の校正には,逆数に基づく手法を用いる。
自然言語タスクには, 言語モデルに基づく正規化子を用いて, 流線型論理の抽出を促進することを提案する。
論文 参考訳(メタデータ) (2020-12-16T11:54:15Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。