論文の概要: AOL: Adaptive Online Learning for Human Trajectory Prediction in Dynamic
Video Scenes
- arxiv url: http://arxiv.org/abs/2002.06666v2
- Date: Sun, 9 Aug 2020 21:20:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 18:16:23.977591
- Title: AOL: Adaptive Online Learning for Human Trajectory Prediction in Dynamic
Video Scenes
- Title(参考訳): AOL:ダイナミックビデオシーンにおける人間の軌道予測のための適応型オンライン学習
- Authors: Manh Huynh, Gita Alaghband
- Abstract要約: 本稿では,動的な映像シーンにおける人間の動きの軌跡を予測するための,適応型オンライン学習(AOL)フレームワークを提案する。
我々のフレームワークは、シーン環境の変化を学習し、適応し、異なるシナリオに対して最適なネットワーク重みを生成する。
- 参考スコア(独自算出の注目度): 1.0312968200748118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel adaptive online learning (AOL) framework to predict human
movement trajectories in dynamic video scenes. Our framework learns and adapts
to changes in the scene environment and generates best network weights for
different scenarios. The framework can be applied to prediction models and
improve their performance as it dynamically adjusts when it encounters changes
in the scene and can apply the best training weights for predicting the next
locations. We demonstrate this by integrating our framework with two existing
prediction models: LSTM [3] and Future Person Location (FPL) [1]. Furthermore,
we analyze the number of network weights for optimal performance and show that
we can achieve real-time with a fixed number of networks using the least
recently used (LRU) strategy for maintaining the most recently trained network
weights. With extensive experiments, we show that our framework increases
prediction accuracies of LSTM and FPL by ~17% and 28% on average, and up to
~50% for FPL on the worst case while achieving real-time (20fps).
- Abstract(参考訳): 本稿では,動的映像シーンにおける人間の運動軌跡を予測するための適応型オンライン学習(aol)フレームワークを提案する。
我々のフレームワークはシーン環境の変化を学習し、適応し、異なるシナリオに対して最適なネットワーク重みを生成する。
このフレームワークは予測モデルに適用でき、シーンの変化に遭遇すると動的に調整し、次の場所を予測するのに最適なトレーニング重みを適用できるため、パフォーマンスを向上させることができる。
LSTM[3]とFuture Person Location(FPL)[1]という2つの既存の予測モデルとフレームワークを統合することでこれを実証する。
さらに,ネットワークの重み付け数を最適性能として分析し,最も最近トレーニングされたネットワーク重みを維持したlru(lru)戦略を用いて,一定数のネットワークでリアルタイムに実現可能であることを示す。
大規模な実験により,我々のフレームワークはLSTMとFPLの予測精度を平均で17%,FPLで28%向上し,FPLでは最大50%向上し,リアルタイム(20fps)を実現した。
関連論文リスト
- Towards a graph-based foundation model for network traffic analysis [3.0558245652654907]
基礎モデルはネットワークトラフィックの複雑さを把握でき、最小限の微調整で特定のタスクや環境に適応できる。
従来のアプローチではトークン化ヘックスレベルのパケットデータを使用していた。
本稿では,フローレベルでグラフベースの新しい代替案を提案する。
論文 参考訳(メタデータ) (2024-09-12T15:04:34Z) - Flextron: Many-in-One Flexible Large Language Model [85.93260172698398]
我々は,フレキシブルモデル展開をサポートするネットワークアーキテクチャとポストトレーニングモデル最適化フレームワークであるFlextronを紹介する。
本稿では,既存の学習用LDMをFlextronモデルに変換するための,サンプル効率のよいトレーニング手法と関連するルーティングアルゴリズムを提案する。
我々は、複数のエンドツーエンドトレーニングされた変種や他の最先端の弾性ネットワークよりも優れた性能を示し、これらは全て、オリジナルの事前訓練と比較してわずか7.63%のトークンを消費する単一の事前訓練ランで実現している。
論文 参考訳(メタデータ) (2024-06-11T01:16:10Z) - FutureDepth: Learning to Predict the Future Improves Video Depth Estimation [46.421154770321266]
FutureDepthは、マルチフレームとモーションキューを暗黙的に活用して深度推定を改善するビデオ深度推定手法である。
本論文では,FutureDepthがベースラインモデルを大幅に改善し,既存のビデオ深度推定法より優れ,新しい最先端(SOTA)の精度が設定できることを示す。
論文 参考訳(メタデータ) (2024-03-19T17:55:22Z) - An Adaptive Framework for Generalizing Network Traffic Prediction
towards Uncertain Environments [51.99765487172328]
我々は,モバイルネットワークトラフィック予測モデルを動的に割り当てるための時系列解析を用いた新しいフレームワークを開発した。
我々のフレームワークは学習した振る舞いを採用しており、現在の研究と比較して50%以上の改善が得られ、どのモデルよりも優れています。
論文 参考訳(メタデータ) (2023-11-30T18:58:38Z) - Reinforcement Learning with Action-Free Pre-Training from Videos [95.25074614579646]
本稿では,ビデオにおける生成前学習を通じて動的理解に役立つ表現を学習するフレームワークを提案する。
我々のフレームワークは、視覚に基づく強化学習の最終性能とサンプル効率の両方を著しく改善する。
論文 参考訳(メタデータ) (2022-03-25T19:44:09Z) - Enhancing Trajectory Prediction using Sparse Outputs: Application to
Team Sports [6.26476800426345]
プレイヤー予測のためにディープラーニングモデルをトレーニングするのは、驚くほど難しいかもしれません。
本研究では,スパース軌道の予測と一定加速度による補間によりトレーニングを改善する新しい手法を提案する。
我々は,他の選手の完全な軌跡を条件にすることで,プレイヤーのサブセットに対する予測軌跡の精度を向上できることを見出した。
論文 参考訳(メタデータ) (2021-06-01T01:43:19Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - The Lottery Tickets Hypothesis for Supervised and Self-supervised
Pre-training in Computer Vision Models [115.49214555402567]
事前訓練された重量は、しばしば分類、検出、セグメンテーションを含む幅広い下流タスクを増加させる。
最近の研究は、巨大モデル能力による事前学習の利点を示唆している。
本稿では,抽選券仮説(LTH)のレンズを用いて,教師付きおよび自己指導型事前学習モデルについて検討する。
論文 参考訳(メタデータ) (2020-12-12T21:53:55Z) - Adaptive Future Frame Prediction with Ensemble Network [15.19884183320726]
本稿では,将来のフレーム予測タスクに適応的な更新フレームワークを提案する。
提案フレームワークは,事前学習した予測ネットワーク,連続更新予測ネットワーク,重み推定ネットワークから構成される。
我々のアプローチは、特に動的に変化するシーンにおいて、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2020-11-13T07:08:06Z) - Scene-Adaptive Video Frame Interpolation via Meta-Learning [54.87696619177496]
テスト時に容易に利用できる追加情報を利用することで、各ビデオにモデルを適用することを提案する。
追加パラメータを使わずに1つの勾配更新しか行わず、大幅な性能向上が得られます。
論文 参考訳(メタデータ) (2020-04-02T02:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。