論文の概要: Visual Sensor Pose Optimisation Using Rendering-based Visibility Models
for Robust Cooperative Perception
- arxiv url: http://arxiv.org/abs/2106.05308v1
- Date: Wed, 9 Jun 2021 18:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 02:32:23.200545
- Title: Visual Sensor Pose Optimisation Using Rendering-based Visibility Models
for Robust Cooperative Perception
- Title(参考訳): Rendering-based Visibility Model を用いたロバスト協調知覚のための視覚センサポーズ最適化
- Authors: Eduardo Arnold, Sajjad Mozaffari, Mehrdad Dianati, Paul Jennings
- Abstract要約: Visual Sensor Networksは、複雑な道路セグメントにおける自動運転のためのインフラストラクチャのサポートなど、さまざまな認識アプリケーションで使用することができる。
このようなネットワーク内のセンサーのポーズは、環境と対象のカバレッジを直接決定する。
本稿では,勾配上昇法とプログラミング法に基づく2つの新しいセンサポーズ最適化手法を提案する。
- 参考スコア(独自算出の注目度): 4.5144287492490625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Sensor Networks can be used in a variety of perception applications
such as infrastructure support for autonomous driving in complex road segments.
The pose of the sensors in such networks directly determines the coverage of
the environment and objects therein, which impacts the performance of
applications such as object detection and tracking. Existing sensor pose
optimisation methods in the literature either maximise the coverage of ground
surfaces, or consider the visibility of the target objects as binary variables,
which cannot represent various degrees of visibility. Such formulations cannot
guarantee the visibility of the target objects as they fail to consider
occlusions. This paper proposes two novel sensor pose optimisation methods,
based on gradient-ascent and Integer Programming techniques, which maximise the
visibility of multiple target objects in cluttered environments. Both methods
consider a realistic visibility model based on a rendering engine that provides
pixel-level visibility information about the target objects. The proposed
methods are evaluated in a complex environment and compared to existing methods
in the literature. The evaluation results indicate that explicitly modelling
the visibility of target objects is critical to avoid occlusions in cluttered
environments. Furthermore, both methods significantly outperform existing
methods in terms of object visibility.
- Abstract(参考訳): 視覚センサネットワークは、複雑な道路区間における自律運転のためのインフラストラクチャサポートなど、様々な知覚アプリケーションで使用できる。
このようなネットワークにおけるセンサのポーズは、その環境やオブジェクトのカバレッジを直接決定し、オブジェクト検出やトラッキングといったアプリケーションのパフォーマンスに影響を与える。
既存のセンサは、地表面のカバレッジを最大化するか、ターゲットオブジェクトの可視性を様々な可視性を示すことができないバイナリ変数として考えるかのどちらかである。
このような定式化は、オクルージョンを考慮しないため、対象オブジェクトの可視性を保証することができない。
本稿では,複数対象対象物体の視認性を最大化する勾配強調法と整数計画法に基づく2つの新しいセンサポーズ最適化手法を提案する。
どちらの手法も、ターゲットオブジェクトに関するピクセルレベルの可視性情報を提供するレンダリングエンジンに基づく現実的な可視性モデルを考える。
提案手法は複雑な環境下で評価され,文献上の既存手法と比較した。
評価結果は,対象物体の視認性を明確にモデル化することは,乱雑な環境下での閉塞を避けるために重要であることを示している。
さらに,両手法はオブジェクトの可視性という点で既存手法よりも優れていた。
関連論文リスト
- Perceptual Piercing: Human Visual Cue-based Object Detection in Low Visibility Conditions [2.0409124291940826]
本研究では,大気散乱と人間の視覚野機構に触発された新しい深層学習フレームワークを提案する。
本研究の目的は, 環境条件下での検知システムの精度と信頼性を高めることである。
論文 参考訳(メタデータ) (2024-10-02T04:03:07Z) - Visual Forecasting as a Mid-level Representation for Avoidance [8.712750753534532]
動的物体を持つ環境におけるナビゲーションの課題は、自律エージェントの研究において依然として中心的な課題である。
予測手法は約束を守るが、正確な状態情報に依存しているため、実際の実装では実用的ではない。
本研究では,視覚的予測を革新的な代替手段として提示する。
論文 参考訳(メタデータ) (2023-09-17T13:32:03Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Ensembling object detectors for image and video data analysis [98.26061123111647]
本稿では,複数の物体検出器の出力をアンサンブルすることで,画像データ上の境界ボックスの検出性能と精度を向上させる手法を提案する。
本研究では,2段階追跡に基づく検出精度向上手法を提案することで,映像データに拡張する。
論文 参考訳(メタデータ) (2021-02-09T12:38:16Z) - Unadversarial Examples: Designing Objects for Robust Vision [100.4627585672469]
現代の機械学習アルゴリズムの感度を入力摂動に活かし、「ロバストオブジェクト」を設計するフレームワークを開発しています。
標準ベンチマークから(シミュレーション中)ロボット工学まで,さまざまな視覚ベースのタスクに対するフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T18:26:07Z) - Object-Driven Active Mapping for More Accurate Object Pose Estimation
and Robotic Grasping [5.385583891213281]
このフレームワークは、オブジェクトSLAMシステム上に構築され、同時多目的ポーズ推定プロセスと統合される。
マッピングモジュールと探索戦略を組み合わせることにより、ロボットの把握と互換性のある正確なオブジェクトマップを生成することができる。
論文 参考訳(メタデータ) (2020-12-03T09:36:55Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Visual Object Recognition in Indoor Environments Using Topologically
Persistent Features [2.2344764434954256]
見えない屋内環境における物体認識は、移動ロボットの視覚的認識にとって難しい問題である。
本稿では,この課題に対処するために,オブジェクトの形状情報に依存するトポロジカルに永続的な特徴を用いることを提案する。
提案手法を実世界のロボットに実装し,その有用性を実証する。
論文 参考訳(メタデータ) (2020-10-07T06:04:17Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。