論文の概要: Continual Learning of Predictive Models in Video Sequences via
Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2006.01945v1
- Date: Tue, 2 Jun 2020 21:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 23:45:02.574824
- Title: Continual Learning of Predictive Models in Video Sequences via
Variational Autoencoders
- Title(参考訳): 変分オートエンコーダによる映像系列の予測モデルの連続学習
- Authors: Damian Campo, Giulia Slavic, Mohamad Baydoun, Lucio Marcenaro, Carlo
Regazzoni
- Abstract要約: 本稿では,映像系列における将来のフレームの推論を容易にする予測モデルの連続的な学習手法を提案する。
初期変分オートコーダと、完全に接続されたニューラルネットワークのセットを用いて、潜時空間レベルでの映像フレームとそのダイナミクスの出現をそれぞれ学習する。
- 参考スコア(独自算出の注目度): 6.698751933050415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a method for performing continual learning of predictive
models that facilitate the inference of future frames in video sequences. For a
first given experience, an initial Variational Autoencoder, together with a set
of fully connected neural networks are utilized to respectively learn the
appearance of video frames and their dynamics at the latent space level. By
employing an adapted Markov Jump Particle Filter, the proposed method
recognizes new situations and integrates them as predictive models avoiding
catastrophic forgetting of previously learned tasks. For evaluating the
proposed method, this article uses video sequences from a vehicle that performs
different tasks in a controlled environment.
- Abstract(参考訳): 本稿では,映像系列における将来のフレームの推論を容易にする予測モデルの連続学習手法を提案する。
最初に与えられた経験として、初期変分オートコーダと完全に接続されたニューラルネットワークのセットを用いて、潜時空間レベルでの映像フレームとそのダイナミクスの出現をそれぞれ学習する。
適応型マルコフジャンプ粒子フィルタを用いることにより,新しい状況を認識し,従来学習したタスクの破滅的な忘れることを回避する予測モデルとして統合する。
提案手法の評価には,制御環境において異なるタスクを行う車両からの映像シーケンスを用いる。
関連論文リスト
- Video In-context Learning [46.40277880351059]
本稿では,既存のビデオクリップからモデルが始まり,様々な将来的なシーケンスを生成するビデオインコンテキスト学習について検討する。
これを実現するために、タスクを明確に定義し、ビデオデータセット上で自動回帰変換器を訓練する。
客観的尺度と主観的尺度の両方を含む様々な評価指標を設計し、生成結果の視覚的品質と意味的精度を実証する。
論文 参考訳(メタデータ) (2024-07-10T04:27:06Z) - Zero-Shot Video Semantic Segmentation based on Pre-Trained Diffusion Models [96.97910688908956]
本稿では,事前学習した拡散モデルに基づくビデオセマンティック(VSS)の最初のゼロショット手法を提案する。
予め訓練された画像とビデオ拡散モデルに基づくVSSに適したフレームワークを提案する。
実験により,提案手法は既存のゼロショット画像セマンティックセグメンテーション手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-05-27T08:39:38Z) - Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - Learning Knowledge-Rich Sequential Model for Planar Homography
Estimation in Aerial Video [12.853493070295457]
我々は,ビデオフレームのシーケンスを処理し,その一対の平面ホモグラフ変換をバッチで推定する逐次推定器を開発した。
また、このようなシーケンス・ツー・シーケンスモデルの学習を規則化するために、空間的時間的知識のセットも組み込んだ。
実験的な研究により、我々の逐次モデルが代替画像ベース法よりも大幅に改善されることが示唆された。
論文 参考訳(メタデータ) (2023-04-05T19:28:58Z) - IDM-Follower: A Model-Informed Deep Learning Method for Long-Sequence
Car-Following Trajectory Prediction [24.94160059351764]
ほとんどの自動車追従モデルは生成的であり、最後のステップの速度、位置、加速度の入力のみを考慮する。
2つの独立したエンコーダと、次の軌道を逐次予測できる自己アテンションデコーダを備えた新しい構造を実装した。
シミュレーションとNGSIMデータセットの複数の設定による数値実験により、IMM-Followerは予測性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-10-20T02:24:27Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Insights from Generative Modeling for Neural Video Compression [31.59496634465347]
本稿では,深部自己回帰・潜時可変モデリングのレンズを用いたニューラルビデオ符号化アルゴリズムを提案する。
本稿では,高解像度映像に対して最先端の映像圧縮性能を実現するアーキテクチャを提案する。
さらに、生成的モデリングの観点から、ニューラルビデオ符号化の分野を前進させることができることを示す。
論文 参考訳(メタデータ) (2021-07-28T02:19:39Z) - CCVS: Context-aware Controllable Video Synthesis [95.22008742695772]
プレゼンテーションでは、古いビデオクリップから新しいビデオクリップを合成するための自己教師付き学習アプローチを紹介している。
時間的連続性のための文脈情報と微妙な制御のための補助情報に基づいて合成過程を規定する。
論文 参考訳(メタデータ) (2021-07-16T17:57:44Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z) - Anomaly Detection in Video Data Based on Probabilistic Latent Space
Models [7.269230232703388]
可変オートエンコーダ(VAE)は、ビデオフレームの寸法を小さくするために用いられる。
離散的および連続的推論レベルで定義される適応マルコフジャンプ粒子フィルタを用いて、以下のフレームを予測する。
本手法は,半自律車両が閉じた環境下で一連のタスクを実行する場合の様々なビデオシナリオで評価する。
論文 参考訳(メタデータ) (2020-03-17T10:32:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。