論文の概要: GoToNet: Fast Monocular Scene Exposure and Exploration
- arxiv url: http://arxiv.org/abs/2206.05967v1
- Date: Mon, 13 Jun 2022 08:28:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 14:24:19.489434
- Title: GoToNet: Fast Monocular Scene Exposure and Exploration
- Title(参考訳): GoToNet: 高速なモノクロシーン露光と探索
- Authors: Tom Avrech, Evgenii Zheltonozhskii, Chaim Baskin, Ehud Rivlin
- Abstract要約: リアルタイム環境探索のための新しい手法を提案する。
我々の方法は良い戦術的な決定を下すのに一面(イメージ)しか必要としない。
GotoとLookatと呼ばれる画素が特徴である2つの方向予測が,本手法のコアを構成する。
- 参考スコア(独自算出の注目度): 0.6204265638103346
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autonomous scene exposure and exploration, especially in localization or
communication-denied areas, useful for finding targets in unknown scenes,
remains a challenging problem in computer navigation. In this work, we present
a novel method for real-time environment exploration, whose only requirements
are a visually similar dataset for pre-training, enough lighting in the scene,
and an on-board forward-looking RGB camera for environmental sensing. As
opposed to existing methods, our method requires only one look (image) to make
a good tactical decision, and therefore works at a non-growing, constant time.
Two direction predictions, characterized by pixels dubbed the Goto and Lookat
pixels, comprise the core of our method. These pixels encode the recommended
flight instructions in the following way: the Goto pixel defines the direction
in which the agent should move by one distance unit, and the Lookat pixel
defines the direction in which the camera should be pointing at in the next
step. These flying-instruction pixels are optimized to expose the largest
amount of currently unexplored areas.
Our method presents a novel deep learning-based navigation approach that is
able to solve this problem and demonstrate its ability in an even more
complicated setup, i.e., when computational power is limited. In addition, we
propose a way to generate a navigation-oriented dataset, enabling efficient
training of our method using RGB and depth images. Tests conducted in a
simulator evaluating both the sparse pixels' coordinations inferring process,
and 2D and 3D test flights aimed to unveil areas and decrease distances to
targets achieve promising results. Comparison against a state-of-the-art
algorithm shows our method is able to overperform it, that while measuring the
new voxels per camera pose, minimum distance to target, percentage of surface
voxels seen, and compute time metrics.
- Abstract(参考訳): 自律的なシーンの露出と探索、特に、未知のシーンのターゲットを見つけるのに有用なローカライズや通信の密度の高い領域は、コンピュータナビゲーションにおいて難しい問題である。
そこで本研究では,事前学習のための視覚的に類似したデータセット,シーンに十分な照明,環境検知のための前方向けRGBカメラなど,リアルタイム環境探索のための新しい手法を提案する。
既存の手法とは対照的に,良好な戦術決定を行うには1つのルック(画像)しか必要とせず,非成長的な一定時間で動作する。
GotoとLookatと呼ばれる画素が特徴である2つの方向予測が,本手法のコアを構成する。
これらの画素は推奨飛行指示を次のように符号化する: Gotoピクセルはエージェントが1つの距離単位で動く方向を定義し、Lookatピクセルは次のステップでカメラが指している方向を定義している。
これらのフライングインストラクションピクセルは、現在未調査領域で最も多く露出するように最適化されている。
本手法は,この問題を解決するための新しい深層学習に基づくナビゲーション手法を提案し,計算能力が制限された場合に,さらに複雑なセットアップでその能力を示す。
また,rgbと深度画像を用いた効率的な学習を実現するため,ナビゲーション指向データセットを生成する手法を提案する。
スパースピクセルのコーディネーション推論プロセスと、領域を公開し、期待できる結果を達成するための距離を減らすことを目的とした2Dおよび3Dテスト飛行の両方を評価するシミュレータで実施されたテスト。
現状のアルゴリズムと比較すると、カメラのポーズごとに新しいボクセルを計測し、ターゲットまでの距離を最小化し、表面ボクセルのパーセンテージを計測し、計算時間を計測する。
関連論文リスト
- SaccadeDet: A Novel Dual-Stage Architecture for Rapid and Accurate Detection in Gigapixel Images [50.742420049839474]
SaccadeDetは、人間の目の動きにインスパイアされた、ギガピクセルレベルの物体検出のための革新的なアーキテクチャである。
PANDAデータセットを用いて評価した本手法は,最先端手法の8倍の高速化を実現する。
また、全スライドイメージングへの応用を通じて、ギガピクセルレベルの病理解析に有意な可能性を示す。
論文 参考訳(メタデータ) (2024-07-25T11:22:54Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - R-C-P Method: An Autonomous Volume Calculation Method Using Image
Processing and Machine Vision [0.0]
2台のカメラを用いて、矩形物体の寸法をリアルタイムで測定した。
画像処理とエッジ検出を用いてR-C-P法を開発した。
表面積に加えて、R-C-P法は不連続エッジや体積も検出する。
論文 参考訳(メタデータ) (2023-08-19T15:39:27Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Depth Monocular Estimation with Attention-based Encoder-Decoder Network
from Single Image [7.753378095194288]
ビジョンベースのアプローチは最近多くの注目を集めており、これらの欠点を克服することができる。
本研究では,格子状アーチファクトやぼやけたエッジに悩まされている1つの単眼画像から深度マップを推定する。
我々の新しいアプローチは、最小限のオーバーヘッドで現在の画像の焦点を見つけることができ、奥行き特性の損失を避けることができる。
論文 参考訳(メタデータ) (2022-10-24T23:01:25Z) - VPIT: Real-time Embedded Single Object 3D Tracking Using Voxel Pseudo Images [90.60881721134656]
本稿では,Voxel Pseudo Image Tracking (VPIT) という,Voxel-based 3D Single Object Tracking (3D SOT) 手法を提案する。
KITTI追跡データセットの実験は、VPITが最速の3D SOT法であり、競合的な成功と精度の値を維持することを示している。
論文 参考訳(メタデータ) (2022-06-06T14:02:06Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Memory-Augmented Reinforcement Learning for Image-Goal Navigation [67.3963444878746]
本論文では,クロスエピソードメモリを活用したナビゲーション学習法を提案する。
オーバーフィッティングを避けるため、トレーニング中にRGB入力にデータ拡張を適用することを提案する。
この競合性能はRGB入力のみから得られるが,位置や深度などのセンサは利用できない。
論文 参考訳(メタデータ) (2021-01-13T16:30:20Z) - Agile Reactive Navigation for A Non-Holonomic Mobile Robot Using A Pixel
Processor Array [22.789108850681146]
本稿では、低コストのプロセッサアレイセンサを用いて、乱雑な環境下で、非ホロノミックな地上車両を予め設定されたゲートの周囲を走行するためのアジャイルな反応性ナビゲーション戦略を提案する。
最小限の計算資源を用いて複数のゲートを高速に走行または回避する小型地上車両を実演する。
論文 参考訳(メタデータ) (2020-09-27T09:11:31Z) - Semantic sensor fusion: from camera to sparse lidar information [7.489722641968593]
本稿では,異なる感覚情報,光検出・ランキング(ライダー)スキャン,カメラ画像の融合手法を提案する。
ラベル付き画像とライダー点雲間の意味情報の転送を4ステップで行う。
論文 参考訳(メタデータ) (2020-03-04T03:09:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。