論文の概要: Adversarial Imitation Learning from Video using a State Observer
- arxiv url: http://arxiv.org/abs/2202.00243v1
- Date: Tue, 1 Feb 2022 06:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 23:17:47.039472
- Title: Adversarial Imitation Learning from Video using a State Observer
- Title(参考訳): 状態オブザーバを用いた映像からの敵対的模倣学習
- Authors: Haresh Karnan, Garrett Warnell, Faraz Torabi, Peter Stone
- Abstract要約: 我々は、状態オブザーバVGAIfO-SOを用いた観測から生成した視覚的逆効果という新しいアルゴリズムを導入する。
VGAIfO-SOは、新しい自己監督状態オブザーバを用いて、サンプルの非効率性に対処しようとする。
いくつかの連続制御環境において,VGAIfO-SOはビデオのみによる実演から学習において,他のifOアルゴリズムよりもサンプリング効率が高いことを示す。
- 参考スコア(独自算出の注目度): 50.45370139579214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The imitation learning research community has recently made significant
progress towards the goal of enabling artificial agents to imitate behaviors
from video demonstrations alone. However, current state-of-the-art approaches
developed for this problem exhibit high sample complexity due, in part, to the
high-dimensional nature of video observations. Towards addressing this issue,
we introduce here a new algorithm called Visual Generative Adversarial
Imitation from Observation using a State Observer VGAIfO-SO. At its core,
VGAIfO-SO seeks to address sample inefficiency using a novel, self-supervised
state observer, which provides estimates of lower-dimensional proprioceptive
state representations from high-dimensional images. We show experimentally in
several continuous control environments that VGAIfO-SO is more sample efficient
than other IfO algorithms at learning from video-only demonstrations and can
sometimes even achieve performance close to the Generative Adversarial
Imitation from Observation (GAIfO) algorithm that has privileged access to the
demonstrator's proprioceptive state information.
- Abstract(参考訳): 模倣学習研究コミュニティは最近、人工エージェントがビデオデモだけで行動の模倣を可能にするという目標に向けて大きな進歩を遂げている。
しかし,この問題に対する最先端のアプローチは,映像観察の高次元性に起因して,高いサンプル複雑性を示す。
本稿では, 状態観察者vgaifo-soを用いた視覚生成逆模倣法という新しいアルゴリズムを提案する。
中心となるVGAIfO-SOは、高次元画像から低次元の受容状態表現を推定する、新しい自己監督状態オブザーバを用いてサンプル非効率に対処しようとする。
複数の連続制御環境では、vgaifo-soはビデオのみのデモンストレーションから学習する他のifoアルゴリズムよりもサンプル効率が良く、時にはデモストラクタの摂理状態情報へのアクセスを特権とするgaifo(generative adversarial imitation from observation)アルゴリズムに近い性能が得られる。
関連論文リスト
- Video Anomaly Detection using GAN [0.0]
この論文は、このユースケースに対する解決策を提供することを目的としており、監視システム記録の異常な活動に目を通すために人的資源が不要になるようにする。
我々は,新しいGANに基づく異常検出モデルを開発した。
論文 参考訳(メタデータ) (2023-11-23T16:41:30Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Unsupervised Video Anomaly Detection with Diffusion Models Conditioned
on Compact Motion Representations [17.816344808780965]
教師なしビデオ異常検出(VAD)問題とは、ビデオ内の各フレームをラベルにアクセスすることなく正常または異常に分類することである。
提案手法は条件付き拡散モデルを用いて,事前学習したネットワークから入力データを抽出する。
提案手法は,データ駆動しきい値を用いて,異常事象の指標として高い再構成誤差を考慮している。
論文 参考訳(メタデータ) (2023-07-04T07:36:48Z) - Provable RL with Exogenous Distractors via Multistep Inverse Dynamics [85.52408288789164]
実世界の強化学習(RL)の応用は、メガピクセルカメラから生成されたような高次元の観察にエージェントが対処する必要がある。
従来の研究は表現学習でこのような問題に対処しており、エージェントは生の観察から内因性、潜伏状態の情報を確実に抽出することができる。
しかし、このような手法は観測において時間的に相関するノイズの存在下では失敗する可能性がある。
論文 参考訳(メタデータ) (2021-10-17T15:21:27Z) - Sequential convolutional network for behavioral pattern extraction in
gait recognition [0.7874708385247353]
個人の歩行パターンを学習するための逐次畳み込みネットワーク(SCN)を提案する。
SCNでは、時系列の中間特徴写像を理解するために行動情報抽出器(BIE)を構築している。
SCNのマルチフレームアグリゲータは、モバイル3D畳み込み層を介して、長さが不確定なシーケンス上の機能統合を実行する。
論文 参考訳(メタデータ) (2021-04-23T08:44:10Z) - Video Anomaly Detection Using Pre-Trained Deep Convolutional Neural Nets
and Context Mining [2.0646127669654835]
本稿では,事前学習した畳み込みニューラルネットモデルを用いて特徴抽出とコンテキストマイニングを行う方法について述べる。
我々は,高レベルの特徴から文脈特性を導出し,ビデオ異常検出法の性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-10-06T00:26:14Z) - TinyVIRAT: Low-resolution Video Action Recognition [70.37277191524755]
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T21:09:18Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。