論文の概要: Marine vessel tracking using a monocular camera
- arxiv url: http://arxiv.org/abs/2108.10367v1
- Date: Mon, 23 Aug 2021 19:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 23:31:59.934019
- Title: Marine vessel tracking using a monocular camera
- Title(参考訳): 単眼カメラを用いた船舶追跡
- Authors: Tobias Jacob, Raffaele Galliera, Muddasar Ali, Sikha Bagui
- Abstract要約: ビデオ中の平面上を移動する物体を追跡する新しい方法は、境界ボックスの位置と大きさを用いて距離を推定することで達成される。
このソリューションはエッジでリアルタイムに実行でき、低消費電力のIoT環境で効率的な推論を実現することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, a new technique for camera calibration using only GPS data is
presented. A new way of tracking objects that move on a plane in a video is
achieved by using the location and size of the bounding box to estimate the
distance, achieving an average prediction error of 5.55m per 100m distance from
the camera. This solution can be run in real-time at the edge, achieving
efficient inference in a low-powered IoT environment while also being able to
track multiple different vessels.
- Abstract(参考訳): 本稿では,gpsデータのみを用いた新しいカメラキャリブレーション手法を提案する。
境界ボックスの位置と大きさを利用して距離を推定し、カメラから100mの距離あたり平均5.55mの予測誤差を達成することにより、ビデオ内の平面上を移動する物体を追跡する新しい方法を実現する。
このソリューションはエッジでリアルタイムで実行することができ、低電力のIoT環境で効率的な推論を実現すると同時に、複数の異なるコンテナを追跡することができる。
関連論文リスト
- CamLoPA: A Hidden Wireless Camera Localization Framework via Signal Propagation Path Analysis [59.86280992504629]
CamLoPAは、トレーニング不要の無線カメラ検出およびローカライゼーションフレームワークである。
低コストの商用オフ・ザ・シェルフ(COTS)デバイスを使用して、最小限の活動空間制約で運用する。
95.37%のスヌーピングカメラ検出精度と17.23の平均位置誤差を達成する。
論文 参考訳(メタデータ) (2024-09-23T16:23:50Z) - Design and Flight Demonstration of a Quadrotor for Urban Mapping and Target Tracking Research [0.04712282770819683]
本稿では,都市マッピング,ハザード回避,目標追跡研究のための画像センサを備えた小型四角形機のハードウェア設計と飛行実証について述べる。
車両には5台のカメラが装備されており、2対の魚眼ステレオカメラが装備されており、ほぼ一方向の視界と2軸ジンバルカメラが装備されている。
Robot Operating Systemソフトウェアを実行するNVIDIA Jetson Orin Nanoコンピュータがデータ収集に使用されている。
論文 参考訳(メタデータ) (2024-02-20T18:06:00Z) - A Vision-based Autonomous Perching Approach for Nano Aerial Vehicles [0.0]
ナノクワッドコプターのための視覚に基づく自律パーチ手法を提案する。
ドローンは2cmの精度でマーカーの中心に到達することができる。
論文 参考訳(メタデータ) (2023-06-16T02:34:50Z) - CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perception [20.824179713013734]
カメラレーダ融合フレームワークであるカメラレーダネット(CRN)を提案する。
CRNは、様々なタスクに対して意味的にリッチで空間的に正確な鳥眼視(BEV)特徴マップを生成する。
リアルタイム設定のCRNは20FPSで動作し、nuScenes上のLiDAR検出器に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2023-04-03T00:47:37Z) - Estimating Distances Between People using a Single Overhead Fisheye
Camera with Application to Social-Distancing Oversight [8.337649176647645]
屋内での人との距離をモニタリングするための2つのアプローチを提案する。
1つの方法は魚眼レンズの幾何学的モデルを利用し、もう1つはニューラルネットワークを使って3D世界距離を予測する。
アルゴリズムは1-2フィートの誤差と95%以上の精度で社会的距離違反を検出する。
論文 参考訳(メタデータ) (2023-03-21T00:50:14Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Reconstruction of 3D flight trajectories from ad-hoc camera networks [19.96488566402593]
本研究では,空飛ぶロボットシステムの3次元軌道を,同期しないカメラで撮影した映像から再構成する手法を提案する。
我々のアプローチは、安価で容易に配備できる装置を用いて、動的に飛来する目標の堅牢かつ正確な外部からの追跡を可能にする。
論文 参考訳(メタデータ) (2020-03-10T14:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。