論文の概要: Adversarial Imitation Learning from Video using a State Observer
- arxiv url: http://arxiv.org/abs/2202.00243v1
- Date: Tue, 1 Feb 2022 06:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 23:17:47.039472
- Title: Adversarial Imitation Learning from Video using a State Observer
- Title(参考訳): 状態オブザーバを用いた映像からの敵対的模倣学習
- Authors: Haresh Karnan, Garrett Warnell, Faraz Torabi, Peter Stone
- Abstract要約: 我々は、状態オブザーバVGAIfO-SOを用いた観測から生成した視覚的逆効果という新しいアルゴリズムを導入する。
VGAIfO-SOは、新しい自己監督状態オブザーバを用いて、サンプルの非効率性に対処しようとする。
いくつかの連続制御環境において,VGAIfO-SOはビデオのみによる実演から学習において,他のifOアルゴリズムよりもサンプリング効率が高いことを示す。
- 参考スコア(独自算出の注目度): 50.45370139579214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The imitation learning research community has recently made significant
progress towards the goal of enabling artificial agents to imitate behaviors
from video demonstrations alone. However, current state-of-the-art approaches
developed for this problem exhibit high sample complexity due, in part, to the
high-dimensional nature of video observations. Towards addressing this issue,
we introduce here a new algorithm called Visual Generative Adversarial
Imitation from Observation using a State Observer VGAIfO-SO. At its core,
VGAIfO-SO seeks to address sample inefficiency using a novel, self-supervised
state observer, which provides estimates of lower-dimensional proprioceptive
state representations from high-dimensional images. We show experimentally in
several continuous control environments that VGAIfO-SO is more sample efficient
than other IfO algorithms at learning from video-only demonstrations and can
sometimes even achieve performance close to the Generative Adversarial
Imitation from Observation (GAIfO) algorithm that has privileged access to the
demonstrator's proprioceptive state information.
- Abstract(参考訳): 模倣学習研究コミュニティは最近、人工エージェントがビデオデモだけで行動の模倣を可能にするという目標に向けて大きな進歩を遂げている。
しかし,この問題に対する最先端のアプローチは,映像観察の高次元性に起因して,高いサンプル複雑性を示す。
本稿では, 状態観察者vgaifo-soを用いた視覚生成逆模倣法という新しいアルゴリズムを提案する。
中心となるVGAIfO-SOは、高次元画像から低次元の受容状態表現を推定する、新しい自己監督状態オブザーバを用いてサンプル非効率に対処しようとする。
複数の連続制御環境では、vgaifo-soはビデオのみのデモンストレーションから学習する他のifoアルゴリズムよりもサンプル効率が良く、時にはデモストラクタの摂理状態情報へのアクセスを特権とするgaifo(generative adversarial imitation from observation)アルゴリズムに近い性能が得られる。
関連論文リスト
- MissionGNN: Hierarchical Multimodal GNN-based Weakly Supervised Video Anomaly Recognition with Mission-Specific Knowledge Graph Generation [5.0923114224599555]
本稿では,新しい階層グラフニューラルネットワーク(GNN)モデルであるMissionGNNを紹介する。
提案手法は,大規模マルチモーダルモデル上での重勾配計算を回避し,従来の手法の限界を回避する。
我々のモデルは,従来のセグメンテーションベースやマルチモーダルアプローチの制約を伴わずに,リアルタイムビデオ解析のための実用的で効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-27T01:09:07Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - An Exploratory Study on Human-Centric Video Anomaly Detection through Variational Autoencoders and Trajectory Prediction [2.3349787245442966]
ビデオ異常検出(VAD)はコンピュータビジョンにおける課題であり、目立った研究課題である。
本稿では,人間中心型2ストリームグラフ改善型異常検出システムTSGADを紹介する。
ベンチマークデータセットの総合的な実験を通じてTSGADの有効性を実証する。
論文 参考訳(メタデータ) (2024-04-29T14:25:06Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Unsupervised Video Anomaly Detection with Diffusion Models Conditioned
on Compact Motion Representations [17.816344808780965]
教師なしビデオ異常検出(VAD)問題とは、ビデオ内の各フレームをラベルにアクセスすることなく正常または異常に分類することである。
提案手法は条件付き拡散モデルを用いて,事前学習したネットワークから入力データを抽出する。
提案手法は,データ駆動しきい値を用いて,異常事象の指標として高い再構成誤差を考慮している。
論文 参考訳(メタデータ) (2023-07-04T07:36:48Z) - Provable RL with Exogenous Distractors via Multistep Inverse Dynamics [85.52408288789164]
実世界の強化学習(RL)の応用は、メガピクセルカメラから生成されたような高次元の観察にエージェントが対処する必要がある。
従来の研究は表現学習でこのような問題に対処しており、エージェントは生の観察から内因性、潜伏状態の情報を確実に抽出することができる。
しかし、このような手法は観測において時間的に相関するノイズの存在下では失敗する可能性がある。
論文 参考訳(メタデータ) (2021-10-17T15:21:27Z) - Video Anomaly Detection Using Pre-Trained Deep Convolutional Neural Nets
and Context Mining [2.0646127669654835]
本稿では,事前学習した畳み込みニューラルネットモデルを用いて特徴抽出とコンテキストマイニングを行う方法について述べる。
我々は,高レベルの特徴から文脈特性を導出し,ビデオ異常検出法の性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-10-06T00:26:14Z) - TinyVIRAT: Low-resolution Video Action Recognition [70.37277191524755]
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T21:09:18Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。