論文の概要: Translating Human Mobility Forecasting through Natural Language
Generation
- arxiv url: http://arxiv.org/abs/2112.11481v1
- Date: Mon, 13 Dec 2021 09:56:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 12:27:01.572539
- Title: Translating Human Mobility Forecasting through Natural Language
Generation
- Title(参考訳): 自然言語生成によるヒューマンモビリティ予測の翻訳
- Authors: Hao Xue, Flora D. Salim, Yongli Ren, Charles L. A. Clarke
- Abstract要約: 本稿では,人間の移動度予測問題を,シーケンス・ツー・シーケンス方式で言語翻訳タスクとして扱うことを目的とする。
このパイプラインでは、2分岐ネットワーク ShiFT が設計されている。具体的には、言語生成のための1つのメインブランチと、モビリティパターンを直接学習する1つの補助ブランチで構成されている。
- 参考スコア(独自算出の注目度): 8.727495039722147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing human mobility forecasting models follow the standard design of the
time-series prediction model which takes a series of numerical values as input
to generate a numerical value as a prediction. Although treating this as a
regression problem seems straightforward, incorporating various contextual
information such as the semantic category information of each Place-of-Interest
(POI) is a necessary step, and often the bottleneck, in designing an effective
mobility prediction model. As opposed to the typical approach, we treat
forecasting as a translation problem and propose a novel forecasting through a
language generation pipeline. The paper aims to address the human mobility
forecasting problem as a language translation task in a sequence-to-sequence
manner. A mobility-to-language template is first introduced to describe the
numerical mobility data as natural language sentences. The core intuition of
the human mobility forecasting translation task is to convert the input
mobility description sentences into a future mobility description from which
the prediction target can be obtained. Under this pipeline, a two-branch
network, SHIFT (Translating Human Mobility Forecasting), is designed.
Specifically, it consists of one main branch for language generation and one
auxiliary branch to directly learn mobility patterns. During the training, we
develop a momentum mode for better connecting and training the two branches.
Extensive experiments on three real-world datasets demonstrate that the
proposed SHIFT is effective and presents a new revolutionary approach to
forecasting human mobility.
- Abstract(参考訳): 既存のヒューマンモビリティ予測モデルは、一連の数値値を入力として、予測として数値を生成する時系列予測モデルの標準設計に従っている。
これを回帰問題として扱うことは簡単だが、効果的な移動予測モデルの設計において、各場所(POI)の意味圏情報などの様々な文脈情報を組み込むことが不可欠であり、しばしばボトルネックとなる。
典型的なアプローチとは対照的に,予測を翻訳問題として扱い,言語生成パイプラインによる新しい予測手法を提案する。
本稿は,人間移動予測問題を逐次翻訳タスクとして扱うことを目的としている。
数値モビリティデータを自然言語文として記述するために、最初にモビリティから言語へのテンプレートが導入された。
人間の移動予測翻訳タスクの中核的な直感は、入力された移動度記述文を予測対象が得られる将来の移動度記述に変換することである。
このパイプラインでは、2分岐ネットワーク ShiFT (Translating Human Mobility Forecasting) が設計されている。
具体的には、言語生成のための1つのメインブランチと、モビリティパターンを直接学習する1つの補助ブランチで構成される。
トレーニング中、私たちは2つのブランチの接続とトレーニングを改善するモーメントモードを開発しました。
3つの実世界のデータセットに関する広範な実験は、提案されたシフトが効果的であることを示し、人間の移動を予測する新しい革命的アプローチを示す。
関連論文リスト
- Multi-Transmotion: Pre-trained Model for Human Motion Prediction [68.87010221355223]
マルチトランスモーション(Multi-Transmotion)は、モダリティ事前トレーニング用に設計された革新的なトランスフォーマーベースのモデルである。
提案手法は,下流タスクにおける各種データセット間の競合性能を示す。
論文 参考訳(メタデータ) (2024-11-04T23:15:21Z) - Prompt Mining for Language-based Human Mobility Forecasting [10.325794804095889]
本稿では,言語に基づくモビリティ予測における迅速なマイニングのための新しいフレームワークを提案する。
本発明のフレームワークは、プロンプトの情報エントロピーに基づく即時生成段階と、思考の連鎖などのメカニズムを統合する即時改善段階とを含む。
論文 参考訳(メタデータ) (2024-03-06T08:43:30Z) - Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - Where Would I Go Next? Large Language Models as Human Mobility
Predictors [21.100313868232995]
人間の移動データを解析するためのLLMの言語理解と推論能力を活用する新しい手法 LLM-Mob を提案する。
本手法の総合評価により,LLM-Mobは正確かつ解釈可能な予測を行うのに優れていることが明らかとなった。
論文 参考訳(メタデータ) (2023-08-29T10:24:23Z) - Leveraging Language Foundation Models for Human Mobility Forecasting [8.422257363944295]
時相パターンマイニングに言語基盤モデルを活用する新しいパイプラインを提案する。
我々は、あらゆる種類の情報を含む自然言語入力を直接予測タスクを実行する。
数値時間列を文に変換するために特定のプロンプトを導入し、既存の言語モデルを直接適用できるようにしている。
論文 参考訳(メタデータ) (2022-09-11T01:15:16Z) - Pre-Training a Language Model Without Human Language [74.11825654535895]
先行学習データの本質的性質が下流性能の微調整にどのように寄与するかを検討する。
非構造化データで事前に訓練されたモデルは、下流のタスクでゼロから訓練されたモデルに勝った。
驚くべきことに、特定の非人間言語データの事前トレーニングがGLUEのパフォーマンスを他の非英語言語で事前トレーニングされたパフォーマンスに近づけることを明らかにしました。
論文 参考訳(メタデータ) (2020-12-22T13:38:06Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Semi-supervised Formality Style Transfer using Language Model
Discriminator and Mutual Information Maximization [52.867459839641526]
フォーマル・スタイル・トランスファー(英: Formality style transfer)とは、非公式な文を文法的に正しい形式文に変換するタスクである。
本稿では,言語モデルに基づく識別器を用いて,文が形式的である確率を最大化する半教師付き形式表現スタイル転送モデルを提案する。
実験の結果,我々のモデルは,自動計測と人的判断の両面で,従来の最先端のベースラインを著しく上回りました。
論文 参考訳(メタデータ) (2020-10-10T21:05:56Z) - Modeling Future Cost for Neural Machine Translation [62.427034890537676]
提案手法は,NTTシステムにおける各目標語の将来コストをモデル化するための簡易かつ効率的な手法である。
提案手法は強力なTransformerベースのNMTベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-28T05:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。