論文の概要: In-Air Imaging Sonar Sensor Network with Real-Time Processing Using GPUs
- arxiv url: http://arxiv.org/abs/2208.10839v1
- Date: Tue, 23 Aug 2022 09:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 14:07:53.592906
- Title: In-Air Imaging Sonar Sensor Network with Real-Time Processing Using GPUs
- Title(参考訳): gpuを用いたリアルタイム処理による空中撮像ソナーセンサネットワーク
- Authors: Wouter Jansen, Dennis Laurijssen, Robin Kerstens, Walter Daems, Jan
Steckel
- Abstract要約: 近年では、このようなモダリティの1つが空撮ソナーである。
本稿では,センサネットワークの枠組みについて述べる。
- 参考スコア(独自算出の注目度): 11.24508357413322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For autonomous navigation and robotic applications, sensing the environment
correctly is crucial. Many sensing modalities for this purpose exist. In recent
years, one such modality that is being used is in-air imaging sonar. It is
ideal in complex environments with rough conditions such as dust or fog.
However, like with most sensing modalities, to sense the full environment
around the mobile platform, multiple such sensors are needed to capture the
full 360-degree range. Currently the processing algorithms used to create this
data are insufficient to do so for multiple sensors at a reasonably fast update
rate. Furthermore, a flexible and robust framework is needed to easily
implement multiple imaging sonar sensors into any setup and serve multiple
application types for the data. In this paper we present a sensor network
framework designed for this novel sensing modality. Furthermore, an
implementation of the processing algorithm on a Graphics Processing Unit is
proposed to potentially decrease the computing time to allow for real-time
processing of one or more imaging sonar sensors at a sufficiently high update
rate.
- Abstract(参考訳): 自律的なナビゲーションやロボットアプリケーションでは、環境を正しく感知することが重要です。
この目的のための多くのセンシングモダリティが存在する。
近年、このようなモダリティが使われているのが、空中撮像ソナーである。
塵や霧のような粗い環境の複雑な環境では理想的である。
しかし、ほとんどのセンサーモードと同様に、モバイルプラットフォーム全体の環境を感知するためには、複数のセンサーが全360度範囲を捉える必要がある。
現在、このデータを作成するのに使われている処理アルゴリズムは、比較的高速な更新レートで複数のセンサーで処理するには不十分である。
さらに、任意のセットアップに複数のソナーセンサーを簡単に実装し、データに複数のアプリケーションタイプを提供するために、柔軟で堅牢なフレームワークが必要である。
本稿では,この新しいセンシングモダリティのために設計されたセンサネットワークフレームワークを提案する。
さらに,グラフィック処理ユニット上での処理アルゴリズムの実装により,1つ以上の撮像用ソナーセンサのリアルタイム処理を十分に高い更新速度で行えるように,演算時間を短縮することができる。
関連論文リスト
- Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Data-Induced Interactions of Sparse Sensors [3.050919759387984]
トレーニングデータによって引き起こされるセンサインタラクションの全体像を熱力学ビューで計算する。
これらのデータによって引き起こされるセンサーの相互作用をマッピングすることで、外部選択基準と組み合わせ、センサーの代替効果を予測することができる。
論文 参考訳(メタデータ) (2023-07-21T18:13:37Z) - Augmenting Deep Learning Adaptation for Wearable Sensor Data through
Combined Temporal-Frequency Image Encoding [4.458210211781739]
本稿では、時間領域情報と周波数領域情報をシームレスに統合した、新しい修正繰り返しプロットベースの画像表現を提案する。
加速度センサを用いた活動認識データと事前訓練されたResNetモデルを用いて提案手法の評価を行い,既存の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-03T09:29:27Z) - PixelRNN: In-pixel Recurrent Neural Networks for End-to-end-optimized
Perception with Neural Sensors [42.18718773182277]
従来の画像センサは高速フレームレートで高解像度画像をデジタル化し、さらなる処理のためにセンサーから送信する必要がある大量のデータを生成する。
我々は、純粋なバイナリ演算を用いて、センサ上の時間的特徴を符号化する効率的なリカレントニューラルネットワークアーキテクチャ、PixelRNNの処理を開発する。
PixelRNNは、従来のシステムと比較して、センサから送信されるデータ量を64倍に削減し、手ジェスチャー認識や唇読解タスクの競合精度を提供する。
論文 参考訳(メタデータ) (2023-04-11T18:16:47Z) - Optical flow estimation from event-based cameras and spiking neural
networks [0.4899818550820575]
イベントベースセンサーはスパイキングニューラルネットワーク(SNN)に最適である
教師付きトレーニング後,高密度光フロー推定が可能なU-NetライクなSNNを提案する。
分離可能な畳み込みにより、我々は、合理的に正確な光フロー推定が得られる光モデルを開発することができた。
論文 参考訳(メタデータ) (2023-02-13T16:17:54Z) - MIPI 2022 Challenge on RGB+ToF Depth Completion: Dataset and Report [92.61915017739895]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者にはTetrasRGBDという,高品質な合成RGB+Depthトレーニングデータ18万組と,混合ソースからの2.3万組のテストデータを含む,新たなデータセットが提供される。
最終結果は客観的指標と平均オピニオンスコア(MOS)を主観的に評価する。
論文 参考訳(メタデータ) (2022-09-15T05:31:53Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Radar Voxel Fusion for 3D Object Detection [0.0]
本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
論文 参考訳(メタデータ) (2021-06-26T20:34:12Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。