論文の概要: Adversarial Generative Grammars for Human Activity Prediction
- arxiv url: http://arxiv.org/abs/2008.04888v2
- Date: Fri, 14 Aug 2020 15:16:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:53:00.044090
- Title: Adversarial Generative Grammars for Human Activity Prediction
- Title(参考訳): 人間活動予測のための逆生成文法
- Authors: AJ Piergiovanni, Anelia Angelova, Alexander Toshev, Michael S. Ryoo
- Abstract要約: 将来予測のための逆生成文法モデルを提案する。
私たちの文法は、データ分散から生産ルールを学習できるように設計されています。
推論中に複数の生産ルールを選択することができると、予測される結果が異なる。
- 参考スコア(独自算出の注目度): 141.43526239537502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose an adversarial generative grammar model for future
prediction. The objective is to learn a model that explicitly captures temporal
dependencies, providing a capability to forecast multiple, distinct future
activities. Our adversarial grammar is designed so that it can learn stochastic
production rules from the data distribution, jointly with its latent
non-terminal representations. Being able to select multiple production rules
during inference leads to different predicted outcomes, thus efficiently
modeling many plausible futures. The adversarial generative grammar is
evaluated on the Charades, MultiTHUMOS, Human3.6M, and 50 Salads datasets and
on two activity prediction tasks: future 3D human pose prediction and future
activity prediction. The proposed adversarial grammar outperforms the
state-of-the-art approaches, being able to predict much more accurately and
further in the future, than prior work.
- Abstract(参考訳): 本稿では,将来予測のための逆生成文法モデルを提案する。
目的は、時間依存を明示的に捉え、複数の異なる将来のアクティビティを予測する機能を提供するモデルを学ぶことである。
私たちの逆文法は、潜在的な非終端表現と共同で、データ分布から確率的生産規則を学習できるように設計されています。
推論中に複数の生産ルールを選択できるため、予測結果が異なるため、多くの妥当な未来を効率的にモデル化できる。
逆生成文法は、チャレード、マルチトゥモス、ヒューマン3.6mおよび50サラダデータセットおよび2つのアクティビティ予測タスク(将来の3次元ポーズ予測と将来のアクティビティ予測)で評価される。
提案されたadversarial grammarは最先端のアプローチよりも優れており、以前の仕事よりもずっと正確に将来予測することができる。
関連論文リスト
- Navigating Tomorrow: Reliably Assessing Large Language Models Performance on Future Event Prediction [17.021220773165016]
本研究では,将来の予測タスクを支援するために,複数の大規模言語モデル(LLM)の性能を評価する。
我々は、エンティティタイプとその人気に基づいてニュース記事を発見し分類することで、データセット1を作成する。
論文 参考訳(メタデータ) (2025-01-10T12:44:46Z) - Learning to Plan Long-Term for Language Modeling [23.042650737356496]
今後,多くの文の潜在計画を予測するプランナーを提案する。
複数のプランを一度にサンプリングすることにより、テキスト継続の分布の正確な近似に基づいて言語モデルを条件付けする。
論文 参考訳(メタデータ) (2024-08-23T21:18:10Z) - Can Language Models Use Forecasting Strategies? [14.332379032371612]
実世界の出来事と関連する人間の予測の新たなデータセットを用いた実験について述べる。
モデルはまだ、未来に関する正確な予測に苦戦している。
論文 参考訳(メタデータ) (2024-06-06T19:01:42Z) - Humans and language models diverge when predicting repeating text [52.03471802608112]
我々は,人間とLMのパフォーマンスが分岐するシナリオを提示する。
人間とGPT-2 LMの予測はテキストスパンの最初のプレゼンテーションで強く一致しているが、メモリが役割を担い始めると、その性能は急速にバラバラになる。
このシナリオが,LMを人間の行動に近づける上で,今後の作業に拍車をかけることを期待しています。
論文 参考訳(メタデータ) (2023-10-10T08:24:28Z) - Few-shot Subgoal Planning with Language Models [58.11102061150875]
事前訓練された言語モデルにエンコードされた言語は、細粒度のサブゴール列を推測できることを示す。
サブゴナル・インスペクションを強く仮定する最近の手法とは対照的に,我々の実験では,詳細なサブゴラル・シーケンスを微調整せずに推論できる言語モデルが示されている。
論文 参考訳(メタデータ) (2022-05-28T01:03:30Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - Future Frame Prediction of a Video Sequence [5.660207256468971]
将来の出来事を予測し、予測し、推論する能力は知性の本質である。
将来の出来事を予測し、予測し、推論する能力は知性の本質である。
論文 参考訳(メタデータ) (2020-08-31T15:31:02Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。