論文の概要: Large Language Models for Travel Behavior Prediction
- arxiv url: http://arxiv.org/abs/2312.00819v1
- Date: Thu, 30 Nov 2023 04:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 20:52:28.111461
- Title: Large Language Models for Travel Behavior Prediction
- Title(参考訳): 旅行行動予測のための大規模言語モデル
- Authors: Baichuan Mo, Hanyong Xu, Dingyi Zhuang, Ruoyun Ma, Xiaotong Guo,
Jinhua Zhao
- Abstract要約: 我々は,大規模言語モデルを用いて,データに基づくパラメータ学習を必要とせずに,迅速なエンジニアリングで旅行行動を予測することを提案する。
具体的には,1)タスク記述,2)旅行特性,3)個人属性,および4)ドメイン知識による思考のガイドなど,私たちのプロンプトを慎重に設計する。
その結果、トレーニングサンプルは提供されていないが、LLMに基づく予測は競争精度が高く、F1スコアは標準教師あり学習法であることがわかった。
- 参考スコア(独自算出の注目度): 8.069026355648049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Travel behavior prediction is a fundamental task in transportation demand
management. The conventional methods for travel behavior prediction rely on
numerical data to construct mathematical models and calibrate model parameters
to represent human preferences. Recent advancement in large language models
(LLMs) has shown great reasoning abilities to solve complex problems. In this
study, we propose to use LLMs to predict travel behavior with prompt
engineering without data-based parameter learning. Specifically, we carefully
design our prompts that include 1) task description, 2) travel characteristics,
3) individual attributes, and 4) guides of thinking with domain knowledge, and
ask the LLMs to predict an individual's travel behavior and explain the
results. We select the travel mode choice task as a case study. Results show
that, though no training samples are provided, LLM-based predictions have
competitive accuracy and F1-score as canonical supervised learning methods such
as multinomial logit, random forest, and neural networks. LLMs can also output
reasons that support their prediction. However, though in most of the cases,
the output explanations are reasonable, we still observe cases that violate
logic or with hallucinations.
- Abstract(参考訳): 旅行行動予測は交通需要管理の基本的な課題である。
従来の旅行行動予測法は、数理モデルを構築し、人間の好みを表すモデルパラメータを校正するために数値データに依存する。
大規模言語モデル(LLM)の最近の進歩は、複雑な問題を解く大きな推論能力を示している。
本研究では,データに基づくパラメータ学習を必要とせず,迅速なエンジニアリングによる旅行行動の予測にLLMを用いることを提案する。
具体的には プロンプトを慎重に設計し
1)タスク記述。
2)旅行の特徴
3)個々の属性、および
4) ドメイン知識による思考のガイドを行い, LLMに個人の旅行行動の予測と結果の説明を依頼する。
我々は,旅行モード選択タスクをケーススタディとして選択する。
その結果、トレーニングサンプルは提供されていないが、llmベースの予測は競合精度があり、多項ロジット、ランダムフォレスト、ニューラルネットワークなどの標準教師付き学習方法としてf1-scoreが用いられる。
LLMは予測をサポートする理由を出力することもできる。
しかし、ほとんどの場合、アウトプットの説明は妥当であるが、論理に反するケースや幻覚を伴うケースは依然として観察されている。
関連論文リスト
- Unfamiliar Finetuning Examples Control How Language Models Hallucinate [80.497886066705]
大規模言語モデル(LLM)は、可聴性に富むが、実際には正しくない応答を生成する傾向にある。
我々は,長期化タスクに対する幻覚をより確実に緩和するRLアプローチを開発した。
論文 参考訳(メタデータ) (2024-03-08T18:28:13Z) - Understanding the Reasoning Ability of Language Models From the
Perspective of Reasoning Paths Aggregation [117.32019595678771]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびMWPデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - TaskMet: Task-Driven Metric Learning for Model Learning [31.118311918110454]
ディープラーニングモデルは、トレーニング手順が認識していない可能性のある下流タスクにデプロイされることが多い。
本稿では,モデルのパラメータよりも1段階深いタスク損失信号を用いて,モデルがトレーニングした損失関数のパラメータを学習する。
このアプローチは、最適な予測モデル自体を変更するのではなく、下流のタスクにとって重要な情報を強調するためにモデル学習を変更する。
論文 参考訳(メタデータ) (2023-12-08T18:59:03Z) - Where Would I Go Next? Large Language Models as Human Mobility
Predictors [21.100313868232995]
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-29T10:24:23Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Making Pre-trained Language Models both Task-solvers and
Self-calibrators [52.98858650625623]
プレトレーニング言語モデル(PLM)は、様々な現実世界のシステムのバックボーンとして機能する。
以前の研究は、余分なキャリブレーションタスクを導入することでこの問題を緩和できることを示している。
課題に対処するためのトレーニングアルゴリズムLM-TOASTを提案する。
論文 参考訳(メタデータ) (2023-07-21T02:51:41Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - How do you go where? Improving next location prediction by learning
travel mode information using transformers [6.003006906852134]
本稿では, トランスフォーマーデコーダに基づくニューラルネットワークを提案し, 過去の位置, 時間, 移動モードに基づいて, 個人が訪問する次の場所を予測する。
特に、次の旅行モードの予測は、ネットワークの学習をガイドする補助的なタスクとして設計されている。
実験の結果,提案手法は,他の最先端の次の位置予測手法よりも大幅に優れていることがわかった。
論文 参考訳(メタデータ) (2022-10-08T19:36:58Z) - Learning from the Best: Rationalizing Prediction by Adversarial
Information Calibration [39.685626118667074]
2つのモデルを共同でトレーニングする。1つは手前のタスクを正確だがブラックボックスな方法で解く典型的なニューラルモデルであり、もう1つはセレクタ-予測モデルであり、予測の根拠も生み出す。
両モデルから抽出した情報の校正には,逆数に基づく手法を用いる。
自然言語タスクには, 言語モデルに基づく正規化子を用いて, 流線型論理の抽出を促進することを提案する。
論文 参考訳(メタデータ) (2020-12-16T11:54:15Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。