論文の概要: In-Air Imaging Sonar Sensor Network with Real-Time Processing Using GPUs
- arxiv url: http://arxiv.org/abs/2208.10839v1
- Date: Tue, 23 Aug 2022 09:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 14:07:53.592906
- Title: In-Air Imaging Sonar Sensor Network with Real-Time Processing Using GPUs
- Title(参考訳): gpuを用いたリアルタイム処理による空中撮像ソナーセンサネットワーク
- Authors: Wouter Jansen, Dennis Laurijssen, Robin Kerstens, Walter Daems, Jan
Steckel
- Abstract要約: 近年では、このようなモダリティの1つが空撮ソナーである。
本稿では,センサネットワークの枠組みについて述べる。
- 参考スコア(独自算出の注目度): 11.24508357413322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For autonomous navigation and robotic applications, sensing the environment
correctly is crucial. Many sensing modalities for this purpose exist. In recent
years, one such modality that is being used is in-air imaging sonar. It is
ideal in complex environments with rough conditions such as dust or fog.
However, like with most sensing modalities, to sense the full environment
around the mobile platform, multiple such sensors are needed to capture the
full 360-degree range. Currently the processing algorithms used to create this
data are insufficient to do so for multiple sensors at a reasonably fast update
rate. Furthermore, a flexible and robust framework is needed to easily
implement multiple imaging sonar sensors into any setup and serve multiple
application types for the data. In this paper we present a sensor network
framework designed for this novel sensing modality. Furthermore, an
implementation of the processing algorithm on a Graphics Processing Unit is
proposed to potentially decrease the computing time to allow for real-time
processing of one or more imaging sonar sensors at a sufficiently high update
rate.
- Abstract(参考訳): 自律的なナビゲーションやロボットアプリケーションでは、環境を正しく感知することが重要です。
この目的のための多くのセンシングモダリティが存在する。
近年、このようなモダリティが使われているのが、空中撮像ソナーである。
塵や霧のような粗い環境の複雑な環境では理想的である。
しかし、ほとんどのセンサーモードと同様に、モバイルプラットフォーム全体の環境を感知するためには、複数のセンサーが全360度範囲を捉える必要がある。
現在、このデータを作成するのに使われている処理アルゴリズムは、比較的高速な更新レートで複数のセンサーで処理するには不十分である。
さらに、任意のセットアップに複数のソナーセンサーを簡単に実装し、データに複数のアプリケーションタイプを提供するために、柔軟で堅牢なフレームワークが必要である。
本稿では,この新しいセンシングモダリティのために設計されたセンサネットワークフレームワークを提案する。
さらに,グラフィック処理ユニット上での処理アルゴリズムの実装により,1つ以上の撮像用ソナーセンサのリアルタイム処理を十分に高い更新速度で行えるように,演算時間を短縮することができる。
関連論文リスト
- Adaptive Domain Learning for Cross-domain Image Denoising [57.4030317607274]
本稿では,クロスドメイン画像認識のための適応型ドメイン学習手法を提案する。
私たちは、異なるセンサー(ソースドメイン)からの既存のデータに加えて、新しいセンサー(ターゲットドメイン)からの少量のデータを使用します。
ADLトレーニングスキームは、ターゲットドメインのモデルを微調整するのに有害なソースドメイン内のデータを自動的に削除する。
また,センサ固有の情報(センサタイプとISO)を取り入れ,画像認識のための入力データを理解するための変調モジュールも導入した。
論文 参考訳(メタデータ) (2024-11-03T08:08:26Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Streaming quanta sensors for online, high-performance imaging and vision [34.098174669870126]
量子画像センサ(QIS)は多くの困難なシナリオにおいて顕著な撮像能力を示した。
その可能性にもかかわらず、これらのセンサーの採用は、(a)高いデータレートと(b)非伝統的な生データを扱うための新しい計算パイプラインの必要性により、著しく妨げられている。
これらの課題に対処するために、単純で低帯域幅の計算パイプラインを導入する。
提案手法は,100倍の帯域幅削減とリアルタイム画像再構成とコンピュータビジョンを実現する。
論文 参考訳(メタデータ) (2024-06-02T20:30:49Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Data-Induced Interactions of Sparse Sensors [3.050919759387984]
トレーニングデータによって引き起こされるセンサインタラクションの全体像を熱力学ビューで計算する。
これらのデータによって引き起こされるセンサーの相互作用をマッピングすることで、外部選択基準と組み合わせ、センサーの代替効果を予測することができる。
論文 参考訳(メタデータ) (2023-07-21T18:13:37Z) - Augmenting Deep Learning Adaptation for Wearable Sensor Data through
Combined Temporal-Frequency Image Encoding [4.458210211781739]
本稿では、時間領域情報と周波数領域情報をシームレスに統合した、新しい修正繰り返しプロットベースの画像表現を提案する。
加速度センサを用いた活動認識データと事前訓練されたResNetモデルを用いて提案手法の評価を行い,既存の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-03T09:29:27Z) - PixelRNN: In-pixel Recurrent Neural Networks for End-to-end-optimized
Perception with Neural Sensors [42.18718773182277]
従来の画像センサは高速フレームレートで高解像度画像をデジタル化し、さらなる処理のためにセンサーから送信する必要がある大量のデータを生成する。
我々は、純粋なバイナリ演算を用いて、センサ上の時間的特徴を符号化する効率的なリカレントニューラルネットワークアーキテクチャ、PixelRNNの処理を開発する。
PixelRNNは、従来のシステムと比較して、センサから送信されるデータ量を64倍に削減し、手ジェスチャー認識や唇読解タスクの競合精度を提供する。
論文 参考訳(メタデータ) (2023-04-11T18:16:47Z) - Optical flow estimation from event-based cameras and spiking neural
networks [0.4899818550820575]
イベントベースセンサーはスパイキングニューラルネットワーク(SNN)に最適である
教師付きトレーニング後,高密度光フロー推定が可能なU-NetライクなSNNを提案する。
分離可能な畳み込みにより、我々は、合理的に正確な光フロー推定が得られる光モデルを開発することができた。
論文 参考訳(メタデータ) (2023-02-13T16:17:54Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。