論文の概要: Imitation-Based Active Camera Control with Deep Convolutional Neural
Network
- arxiv url: http://arxiv.org/abs/2012.06428v1
- Date: Fri, 11 Dec 2020 15:37:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 07:04:30.907357
- Title: Imitation-Based Active Camera Control with Deep Convolutional Neural
Network
- Title(参考訳): 深部畳み込みニューラルネットワークを用いた模倣型アクティブカメラ制御
- Authors: Christos Kyrkou
- Abstract要約: 本論文では,アクティブビジュアルモニタリングを模擬学習問題として構成し,深層学習を用いて教師付きで解く。
深い畳み込みニューラルネットワークは、複数のターゲットに追従するためにカメラを制御するために必要な処理パイプライン全体を学習するカメラコントローラとしてエンドツーエンドで訓練される。
実験結果から,提案手法は様々な条件に頑健であり,モニタリング性能の向上が期待できることがわかった。
- 参考スコア(独自算出の注目度): 4.09920839425892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing need for automated visual monitoring and control for
applications such as smart camera surveillance, traffic monitoring, and
intelligent environments, necessitates the improvement of methods for visual
active monitoring. Traditionally, the active monitoring task has been handled
through a pipeline of modules such as detection, filtering, and control. In
this paper we frame active visual monitoring as an imitation learning problem
to be solved in a supervised manner using deep learning, to go directly from
visual information to camera movement in order to provide a satisfactory
solution by combining computer vision and control. A deep convolutional neural
network is trained end-to-end as the camera controller that learns the entire
processing pipeline needed to control a camera to follow multiple targets and
also estimate their density from a single image. Experimental results indicate
that the proposed solution is robust to varying conditions and is able to
achieve better monitoring performance both in terms of number of targets
monitored as well as in monitoring time than traditional approaches, while
reaching up to 25 FPS. Thus making it a practical and affordable solution for
multi-target active monitoring in surveillance and smart-environment
applications.
- Abstract(参考訳): スマートカメラ監視、トラフィック監視、インテリジェント環境などのアプリケーションに対する自動的な視覚監視と制御の必要性が高まっているため、視覚的アクティブ監視のための方法の改善が必要である。
従来、アクティブな監視タスクは、検出、フィルタリング、制御などのモジュールのパイプラインを通じて処理されていた。
本稿では, コンピュータビジョンと制御を組み合わせることで, 視覚情報からカメラの動きまで, 教師ありで解決すべき模倣学習問題として, アクティブな視覚モニタリングを枠組し, コンピュータビジョンと制御を組み合わせることで, 満足のいくソリューションを提供する。
ディープ畳み込みニューラルネットワークは、カメラを複数のターゲットに追従するために必要な処理パイプライン全体を学び、その密度を単一のイメージから推定するカメラコントローラとしてエンドツーエンドに訓練される。
実験結果から,提案手法は各種条件に対して堅牢であり,監視対象数,監視時間ともに従来の手法よりも優れた監視性能を達成でき,最大25FPSに達することが示唆された。
これにより、監視およびスマート環境アプリケーションにおけるマルチターゲットアクティブモニタリングのための実用的で安価なソリューションとなる。
関連論文リスト
- RoboKoop: Efficient Control Conditioned Representations from Visual Input in Robotics using Koopman Operator [14.77553682217217]
本研究では,高次元潜在空間におけるエージェントの視覚データから効率的な線形化視覚表現を学習するコントラストスペクトル・クープマン埋め込みネットワークを提案する。
本手法は、時間とともに勾配力学の安定性と制御を向上し、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-09-04T22:14:59Z) - Realtime Dynamic Gaze Target Tracking and Depth-Level Estimation [6.435984242701043]
車両のヘッドアップディスプレイ(HUD)のような様々な用途における透明ディスプレイ(TD)は、ユーザー体験に革命をもたらす可能性がある。
このイノベーションは、リアルタイムのヒューマンデバイスインタラクション、特に動的に変化するTDに対するユーザの視線を正確に識別し追跡する上で、大きな課題を引き起こします。
本研究では,(1)目視対象を特定し,動的に追跡する木に基づくアルゴリズム,(2)目視の深度レベルを目視追跡データから推定するマルチストリーム自己認識アーキテクチャからなる,リアルタイム目視監視のための2重頑健で効率的な体系的ソリューションを提案する。
論文 参考訳(メタデータ) (2024-06-09T20:52:47Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Argus++: Robust Real-time Activity Detection for Unconstrained Video
Streams with Overlapping Cube Proposals [85.76513755331318]
Argus++は、制約のないビデオストリームを分析するための堅牢なリアルタイムアクティビティ検出システムである。
システム全体としては、スタンドアロンのコンシューマレベルのハードウェア上でのリアルタイム処理に最適化されている。
論文 参考訳(メタデータ) (2022-01-14T03:35:22Z) - C^3Net: End-to-End deep learning for efficient real-time visual active
camera control [4.09920839425892]
スマートカメラ監視、スマート環境、ドローンなどのアプリケーションにおける自動化されたリアルタイムビジュアルシステムの必要性は、視覚的アクティブな監視と制御のための方法の改善を必要とする。
本稿では,視覚情報からカメラ運動へ直接移行する深層畳み込み型カメラ制御ニューラルネットワークを提案する。
カメラをコントロールし、生のピクセル値から複数のターゲットに従うために、ボックスアノテーションをバウンドすることなく、エンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-07-28T09:31:46Z) - Scalable Perception-Action-Communication Loops with Convolutional and
Graph Neural Networks [208.15591625749272]
視覚に基づくグラフアグリゲーション・アンド・推論(VGAI)を用いた知覚-行動-コミュニケーションループの設計を提案する。
我々のフレームワークは、畳み込みとグラフニューラルネットワーク(CNN/GNN)のカスケードによって実装され、エージェントレベルの視覚知覚と特徴学習に対処する。
我々は、VGAIが他の分散コントローラに匹敵する性能を得ることを示した。
論文 参考訳(メタデータ) (2021-06-24T23:57:21Z) - Artificial Intelligence Enabled Traffic Monitoring System [3.085453921856008]
本稿では,深層畳み込みニューラルネットワークを用いたリアルタイム交通映像の自動監視手法を提案する。
提案システムは、さまざまなトラフィック監視ニーズを自動化するために、最先端のディープラーニングアルゴリズムをデプロイする。
論文 参考訳(メタデータ) (2020-10-02T22:28:02Z) - Neuromorphic Eye-in-Hand Visual Servoing [0.9949801888214528]
イベントカメラは、低レイテンシと広いダイナミックレンジで人間のような視覚機能を提供する。
本稿では,イベントカメラとスイッチング制御戦略を用いて,探索,到達,把握を行う視覚サーボ手法を提案する。
実験は、異なる形状の物体を追跡して把握する手法の有効性を、再学習を必要とせずに証明する。
論文 参考訳(メタデータ) (2020-04-15T23:57:54Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。