論文の概要: AOL: Adaptive Online Learning for Human Trajectory Prediction in Dynamic
Video Scenes
- arxiv url: http://arxiv.org/abs/2002.06666v2
- Date: Sun, 9 Aug 2020 21:20:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 18:16:23.977591
- Title: AOL: Adaptive Online Learning for Human Trajectory Prediction in Dynamic
Video Scenes
- Title(参考訳): AOL:ダイナミックビデオシーンにおける人間の軌道予測のための適応型オンライン学習
- Authors: Manh Huynh, Gita Alaghband
- Abstract要約: 本稿では,動的な映像シーンにおける人間の動きの軌跡を予測するための,適応型オンライン学習(AOL)フレームワークを提案する。
我々のフレームワークは、シーン環境の変化を学習し、適応し、異なるシナリオに対して最適なネットワーク重みを生成する。
- 参考スコア(独自算出の注目度): 1.0312968200748118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel adaptive online learning (AOL) framework to predict human
movement trajectories in dynamic video scenes. Our framework learns and adapts
to changes in the scene environment and generates best network weights for
different scenarios. The framework can be applied to prediction models and
improve their performance as it dynamically adjusts when it encounters changes
in the scene and can apply the best training weights for predicting the next
locations. We demonstrate this by integrating our framework with two existing
prediction models: LSTM [3] and Future Person Location (FPL) [1]. Furthermore,
we analyze the number of network weights for optimal performance and show that
we can achieve real-time with a fixed number of networks using the least
recently used (LRU) strategy for maintaining the most recently trained network
weights. With extensive experiments, we show that our framework increases
prediction accuracies of LSTM and FPL by ~17% and 28% on average, and up to
~50% for FPL on the worst case while achieving real-time (20fps).
- Abstract(参考訳): 本稿では,動的映像シーンにおける人間の運動軌跡を予測するための適応型オンライン学習(aol)フレームワークを提案する。
我々のフレームワークはシーン環境の変化を学習し、適応し、異なるシナリオに対して最適なネットワーク重みを生成する。
このフレームワークは予測モデルに適用でき、シーンの変化に遭遇すると動的に調整し、次の場所を予測するのに最適なトレーニング重みを適用できるため、パフォーマンスを向上させることができる。
LSTM[3]とFuture Person Location(FPL)[1]という2つの既存の予測モデルとフレームワークを統合することでこれを実証する。
さらに,ネットワークの重み付け数を最適性能として分析し,最も最近トレーニングされたネットワーク重みを維持したlru(lru)戦略を用いて,一定数のネットワークでリアルタイムに実現可能であることを示す。
大規模な実験により,我々のフレームワークはLSTMとFPLの予測精度を平均で17%,FPLで28%向上し,FPLでは最大50%向上し,リアルタイム(20fps)を実現した。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - An Adaptive Framework for Generalizing Network Traffic Prediction
towards Uncertain Environments [51.99765487172328]
我々は,モバイルネットワークトラフィック予測モデルを動的に割り当てるための時系列解析を用いた新しいフレームワークを開発した。
我々のフレームワークは学習した振る舞いを採用しており、現在の研究と比較して50%以上の改善が得られ、どのモデルよりも優れています。
論文 参考訳(メタデータ) (2023-11-30T18:58:38Z) - A Closer Look at Self-Supervised Lightweight Vision Transformers [44.44888945683147]
大規模視覚変換器(ViT)の自己教師型学習を事前学習法として実現した。
画像分類タスクと下流密度予測タスクに関する自己教師付き事前学習手法のベンチマークを行った。
バニラ・ライトウェイトなViTでさえ、デリケートなアーキテクチャ設計を持つ以前のSOTAネットワークに匹敵する性能を示している。
論文 参考訳(メタデータ) (2022-05-28T14:14:57Z) - Reinforcement Learning with Action-Free Pre-Training from Videos [95.25074614579646]
本稿では,ビデオにおける生成前学習を通じて動的理解に役立つ表現を学習するフレームワークを提案する。
我々のフレームワークは、視覚に基づく強化学習の最終性能とサンプル効率の両方を著しく改善する。
論文 参考訳(メタデータ) (2022-03-25T19:44:09Z) - Enhancing Trajectory Prediction using Sparse Outputs: Application to
Team Sports [6.26476800426345]
プレイヤー予測のためにディープラーニングモデルをトレーニングするのは、驚くほど難しいかもしれません。
本研究では,スパース軌道の予測と一定加速度による補間によりトレーニングを改善する新しい手法を提案する。
我々は,他の選手の完全な軌跡を条件にすることで,プレイヤーのサブセットに対する予測軌跡の精度を向上できることを見出した。
論文 参考訳(メタデータ) (2021-06-01T01:43:19Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - The Lottery Tickets Hypothesis for Supervised and Self-supervised
Pre-training in Computer Vision Models [115.49214555402567]
事前訓練された重量は、しばしば分類、検出、セグメンテーションを含む幅広い下流タスクを増加させる。
最近の研究は、巨大モデル能力による事前学習の利点を示唆している。
本稿では,抽選券仮説(LTH)のレンズを用いて,教師付きおよび自己指導型事前学習モデルについて検討する。
論文 参考訳(メタデータ) (2020-12-12T21:53:55Z) - Adaptive Future Frame Prediction with Ensemble Network [15.19884183320726]
本稿では,将来のフレーム予測タスクに適応的な更新フレームワークを提案する。
提案フレームワークは,事前学習した予測ネットワーク,連続更新予測ネットワーク,重み推定ネットワークから構成される。
我々のアプローチは、特に動的に変化するシーンにおいて、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2020-11-13T07:08:06Z) - Scene-Adaptive Video Frame Interpolation via Meta-Learning [54.87696619177496]
テスト時に容易に利用できる追加情報を利用することで、各ビデオにモデルを適用することを提案する。
追加パラメータを使わずに1つの勾配更新しか行わず、大幅な性能向上が得られます。
論文 参考訳(メタデータ) (2020-04-02T02:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。