論文の概要: Off-the-shelf ChatGPT is a Good Few-shot Human Motion Predictor
- arxiv url: http://arxiv.org/abs/2405.15267v1
- Date: Fri, 24 May 2024 06:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 15:50:32.703717
- Title: Off-the-shelf ChatGPT is a Good Few-shot Human Motion Predictor
- Title(参考訳): 市販のChatGPTは、人間の動き予測器として優れています
- Authors: Haoxuan Qu, Zhaoyang He, Zeyu Hu, Yujun Cai, Jun Liu,
- Abstract要約: 既存の数発のモーション予測作業では、人間の動きに対して専用に訓練された特定のモデルが一般的に必要である。
本研究では,特定の人間の動作予測モデルをトレーニングすることで,この課題に対処する代わりに,新しいFMP-OCフレームワークを提案する。
FMP-OC では,非言語タスクであるFew-shot Motion Prediction をオフザシェルフ言語モデル ChatGPT を用いて直接実行することが可能となる。
- 参考スコア(独自算出の注目度): 14.306710888465041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To facilitate the application of motion prediction in practice, recently, the few-shot motion prediction task has attracted increasing research attention. Yet, in existing few-shot motion prediction works, a specific model that is dedicatedly trained over human motions is generally required. In this work, rather than tackling this task through training a specific human motion prediction model, we instead propose a novel FMP-OC framework. In FMP-OC, in a totally training-free manner, we enable Few-shot Motion Prediction, which is a non-language task, to be performed directly via utilizing the Off-the-shelf language model ChatGPT. Specifically, to lead ChatGPT as a language model to become an accurate motion predictor, in FMP-OC, we first introduce several novel designs to facilitate extracting implicit knowledge from ChatGPT. Moreover, we also incorporate our framework with a motion-in-context learning mechanism. Extensive experiments demonstrate the efficacy of our proposed framework.
- Abstract(参考訳): 動作予測の実践的適用を容易にするため,近年,数発の動作予測タスクが研究の注目を集めている。
しかし、既存の数発のモーション予測作業では、人間の動きに専用に訓練された特定のモデルが一般的に必要である。
本研究では,特定の人間の動作予測モデルをトレーニングすることで,この課題に対処する代わりに,新しいFMP-OCフレームワークを提案する。
FMP-OC では,非言語タスクであるFew-shot Motion Prediction をオフザシェルフ言語モデル ChatGPT を用いて直接実行することが可能となる。
具体的には、ChatGPTを言語モデルとして導き、正確な動き予測器となるために、FMP-OCでは、ChatGPTから暗黙の知識を抽出するための新しい設計をいくつか導入する。
さらに,本フレームワークには,テキスト内移動学習機構も組み込んでいる。
大規模な実験により,提案手法の有効性が実証された。
関連論文リスト
- Prompt Mining for Language-based Human Mobility Forecasting [10.325794804095889]
本稿では,言語に基づくモビリティ予測における迅速なマイニングのための新しいフレームワークを提案する。
本発明のフレームワークは、プロンプトの情報エントロピーに基づく即時生成段階と、思考の連鎖などのメカニズムを統合する即時改善段階とを含む。
論文 参考訳(メタデータ) (2024-03-06T08:43:30Z) - GPT-Driver: Learning to Drive with GPT [47.14350537515685]
我々は,OpenAI GPT-3.5モデルを自律走行車のための信頼性の高い運動プランナに変換する,シンプルで効果的なアプローチを提案する。
我々は、Large Language Models(LLMs)固有の強力な推論能力と一般化の可能性に乗じる。
我々は,大規模な nuScenes データセットに対する我々のアプローチを評価し,GPT ベースの運動プランナの有効性,一般化能力,解釈可能性について検証した。
論文 参考訳(メタデータ) (2023-10-02T17:59:57Z) - RMP: A Random Mask Pretrain Framework for Motion Prediction [19.365368563777206]
本稿では,交通参加者の軌道予測のための事前学習タスクを形式化する枠組みを提案する。
提案する事前学習フレームワークはノイズの多い入力を処理でき、動作予測精度とミス率を改善する。
論文 参考訳(メタデータ) (2023-09-16T13:09:02Z) - MotionGPT: Human Motion as a Foreign Language [47.21648303282788]
人間の動きは人間の言語に似た意味的な結合を示し、しばしば身体言語の一種として認識される。
大規模モーションモデルで言語データを融合することにより、動き言語事前学習は、動きに関連したタスクのパフォーマンスを向上させることができる。
我々は,複数の動作関連タスクを処理するために,統一的で汎用的でユーザフレンドリな動作言語モデルであるMotionGPTを提案する。
論文 参考訳(メタデータ) (2023-06-26T15:53:02Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - PREF: Predictability Regularized Neural Motion Fields [68.60019434498703]
ダイナミックなシーンで3Dの動きを知ることは、多くの視覚応用にとって不可欠である。
多視点設定における全ての点の運動を推定するために神経運動場を利用する。
予測可能な動きを正規化することを提案する。
論文 参考訳(メタデータ) (2022-09-21T22:32:37Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - Few-shot Subgoal Planning with Language Models [58.11102061150875]
事前訓練された言語モデルにエンコードされた言語は、細粒度のサブゴール列を推測できることを示す。
サブゴナル・インスペクションを強く仮定する最近の手法とは対照的に,我々の実験では,詳細なサブゴラル・シーケンスを微調整せずに推論できる言語モデルが示されている。
論文 参考訳(メタデータ) (2022-05-28T01:03:30Z) - Bootstrap Motion Forecasting With Self-Consistent Constraints [52.88100002373369]
自己整合性制約を用いた動き予測をブートストラップする新しい枠組みを提案する。
運動予測タスクは、過去の空間的・時間的情報を組み込むことで、車両の将来の軌跡を予測することを目的としている。
提案手法は,既存手法の予測性能を常に向上することを示す。
論文 参考訳(メタデータ) (2022-04-12T14:59:48Z) - Reinforcement Learning with Action-Free Pre-Training from Videos [95.25074614579646]
本稿では,ビデオにおける生成前学習を通じて動的理解に役立つ表現を学習するフレームワークを提案する。
我々のフレームワークは、視覚に基づく強化学習の最終性能とサンプル効率の両方を著しく改善する。
論文 参考訳(メタデータ) (2022-03-25T19:44:09Z) - Multi-grained Trajectory Graph Convolutional Networks for
Habit-unrelated Human Motion Prediction [4.070072825448614]
習慣非関連な人間の運動予測のために, マルチグレイングラフ畳み込みネットワークベースの軽量フレームワークを提案する。
左利きの動作を生成するための新しい動き生成法を提案し,人間の習慣に偏りのない動きをより良くモデル化した。
humantemporal3.6m と cmu mocap を含む挑戦的データセットの実験結果は、提案モデルが0.12倍以下のパラメータで最先端を上回っていることを示している。
論文 参考訳(メタデータ) (2020-12-23T09:41:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。