論文の概要: C^3Net: End-to-End deep learning for efficient real-time visual active
camera control
- arxiv url: http://arxiv.org/abs/2107.13233v1
- Date: Wed, 28 Jul 2021 09:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 13:53:22.739418
- Title: C^3Net: End-to-End deep learning for efficient real-time visual active
camera control
- Title(参考訳): c^3net: リアルタイム視覚アクティブカメラ制御のためのエンドツーエンドディープラーニング
- Authors: Christos Kyrkou
- Abstract要約: スマートカメラ監視、スマート環境、ドローンなどのアプリケーションにおける自動化されたリアルタイムビジュアルシステムの必要性は、視覚的アクティブな監視と制御のための方法の改善を必要とする。
本稿では,視覚情報からカメラ運動へ直接移行する深層畳み込み型カメラ制御ニューラルネットワークを提案する。
カメラをコントロールし、生のピクセル値から複数のターゲットに従うために、ボックスアノテーションをバウンドすることなく、エンドツーエンドでトレーニングされる。
- 参考スコア(独自算出の注目度): 4.09920839425892
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The need for automated real-time visual systems in applications such as smart
camera surveillance, smart environments, and drones necessitates the
improvement of methods for visual active monitoring and control. Traditionally,
the active monitoring task has been handled through a pipeline of modules such
as detection, filtering, and control. However, such methods are difficult to
jointly optimize and tune their various parameters for real-time processing in
resource constraint systems. In this paper a deep Convolutional Camera
Controller Neural Network is proposed to go directly from visual information to
camera movement to provide an efficient solution to the active vision problem.
It is trained end-to-end without bounding box annotations to control a camera
and follow multiple targets from raw pixel values. Evaluation through both a
simulation framework and real experimental setup, indicate that the proposed
solution is robust to varying conditions and able to achieve better monitoring
performance than traditional approaches both in terms of number of targets
monitored as well as in effective monitoring time. The advantage of the
proposed approach is that it is computationally less demanding and can run at
over 10 FPS (~4x speedup) on an embedded smart camera providing a practical and
affordable solution to real-time active monitoring.
- Abstract(参考訳): スマートカメラ監視、スマート環境、ドローンなどのアプリケーションにおける自動化されたリアルタイムビジュアルシステムの必要性は、視覚的アクティブな監視と制御のための方法の改善を必要とする。
従来、アクティブな監視タスクは、検出、フィルタリング、制御などのモジュールのパイプラインを通じて処理されていた。
しかし,資源制約システムのリアルタイム処理において,これらのパラメータを協調的に最適化・調整することは困難である。
本稿では、視覚情報からカメラ運動へ直接移行し、能動視覚問題に対する効率的な解決策を提供するための深層畳み込みカメラ制御ニューラルネットワークを提案する。
カメラを制御するためにボックスアノテーションをバウンディングせずにエンドツーエンドでトレーニングされ、生のピクセル値から複数のターゲットに従う。
シミュレーションフレームワークと実際の実験セットアップの両方による評価から,提案手法は様々な条件に頑健であり,監視対象数と効果的な監視時間の両方において従来の手法よりも優れた監視性能が得られることが示された。
提案手法の利点は、計算量が少なく、リアルタイムアクティブ監視の実用的で安価なソリューションを提供する組み込みスマートカメラ上で10 FPS(~4倍のスピードアップ)以上で実行できることである。
関連論文リスト
- VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Argus++: Robust Real-time Activity Detection for Unconstrained Video
Streams with Overlapping Cube Proposals [85.76513755331318]
Argus++は、制約のないビデオストリームを分析するための堅牢なリアルタイムアクティビティ検出システムである。
システム全体としては、スタンドアロンのコンシューマレベルのハードウェア上でのリアルタイム処理に最適化されている。
論文 参考訳(メタデータ) (2022-01-14T03:35:22Z) - CANS: Communication Limited Camera Network Self-Configuration for
Intelligent Industrial Surveillance [8.360870648463653]
リアルタイムおよびインテリジェントなカメラネットワークによるビデオ監視には、大量のビデオデータによる計算集約的な視覚検出タスクが含まれる。
複数のビデオストリームは、エッジデバイスとカメラネットワークのリンク上で限られた通信リソースを競う。
ビデオ監視の適応型カメラネットワーク自己設定法(CANS)を提案する。
論文 参考訳(メタデータ) (2021-09-13T01:54:33Z) - Imitation-Based Active Camera Control with Deep Convolutional Neural
Network [4.09920839425892]
本論文では,アクティブビジュアルモニタリングを模擬学習問題として構成し,深層学習を用いて教師付きで解く。
深い畳み込みニューラルネットワークは、複数のターゲットに追従するためにカメラを制御するために必要な処理パイプライン全体を学習するカメラコントローラとしてエンドツーエンドで訓練される。
実験結果から,提案手法は様々な条件に頑健であり,モニタリング性能の向上が期待できることがわかった。
論文 参考訳(メタデータ) (2020-12-11T15:37:33Z) - Artificial Intelligence Enabled Traffic Monitoring System [3.085453921856008]
本稿では,深層畳み込みニューラルネットワークを用いたリアルタイム交通映像の自動監視手法を提案する。
提案システムは、さまざまなトラフィック監視ニーズを自動化するために、最先端のディープラーニングアルゴリズムをデプロイする。
論文 参考訳(メタデータ) (2020-10-02T22:28:02Z) - YOLOpeds: Efficient Real-Time Single-Shot Pedestrian Detection for Smart
Camera Applications [2.588973722689844]
この研究は、スマートカメラアプリケーションにおけるディープラーニングに基づく歩行者検出の効率的な展開のために、精度と速度の良好なトレードオフを達成するという課題に対処する。
分離可能な畳み込みに基づいて計算効率の良いアーキテクチャを導入し、層間密結合とマルチスケール機能融合を提案する。
全体として、YOLOpedsは、既存のディープラーニングモデルよりも86%の速度で、毎秒30フレーム以上のリアルタイム持続的な操作を提供する。
論文 参考訳(メタデータ) (2020-07-27T09:50:11Z) - Neuromorphic Eye-in-Hand Visual Servoing [0.9949801888214528]
イベントカメラは、低レイテンシと広いダイナミックレンジで人間のような視覚機能を提供する。
本稿では,イベントカメラとスイッチング制御戦略を用いて,探索,到達,把握を行う視覚サーボ手法を提案する。
実験は、異なる形状の物体を追跡して把握する手法の有効性を、再学習を必要とせずに証明する。
論文 参考訳(メタデータ) (2020-04-15T23:57:54Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。