論文の概要: Robotic Room Traversal using Optical Range Finding
- arxiv url: http://arxiv.org/abs/2004.08368v1
- Date: Fri, 17 Apr 2020 17:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 13:43:47.570230
- Title: Robotic Room Traversal using Optical Range Finding
- Title(参考訳): 光レンジ検出を用いたロボットルームトラバーサル
- Authors: Cole Smith, Eric Lin, Dennis Shasha
- Abstract要約: 我々のアルゴリズムは、ロボットから最も近い障害物まで360度の距離に依存する。
我々は、より一般的なだけでなく、光検出やレンジといった高価なソリューションの代わりに、独自のレーザーレンジ探索ソリューションを開発しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider the goal of visiting every part of a room that is not blocked by
obstacles. Doing so efficiently requires both sensors and planning. Our
findings suggest a method of inexpensive optical range finding for robotic room
traversal. Our room traversal algorithm relies upon the approximate distance
from the robot to the nearest obstacle in 360 degrees. We then choose the path
with the furthest approximate distance. Since millimeter-precision is not
required for our problem, we have opted to develop our own laser range finding
solution, in lieu of using more common, but also expensive solutions like light
detection and ranging (LIDAR). Rather, our solution uses a laser that casts a
visible dot on the target and a common camera (an iPhone, for example). Based
upon where in the camera frame the laser dot is detected, we may calculate an
angle between our target and the laser aperture. Using this angle and the known
distance between the camera eye and the laser aperture, we may solve all sides
of a trigonometric model which provides the distance between the robot and the
target.
- Abstract(参考訳): 障害によってブロックされない部屋のすべての部分を訪れるという目標を考えてみましょう。
効率的に行うには、センサーと計画の両方が必要です。
ロボット室トラバーサルのための安価な光レンジ探索法を提案する。
我々の部屋の移動アルゴリズムは、ロボットから最も近い障害物まで360度の距離に依存する。
次に、最も近い距離の経路を選択する。
我々の問題に対してミリ精度は必須ではないため、より一般的なものの代わりに、光検出やレンジ(LIDAR)といった高価なソリューションの代わりに、独自のレーザーレンジ探索ソリューションを開発することを選択した。
私たちのソリューションでは、ターゲットに可視ドットを投射するレーザーと、一般的なカメラ(例えばiPhone)を使用します。
カメラフレームのどこでレーザードットが検出されたかに基づいて、ターゲットとレーザー開口部の角度を計算することができる。
この角度とカメラ・アイとレーザー・アパーチャの間の既知の距離を用いて、ロボットとターゲットの間の距離を提供する三角モデルの全辺を解くことができる。
関連論文リスト
- Improving Distant 3D Object Detection Using 2D Box Supervision [97.80225758259147]
遠方の物体の欠損した深さを回復するフレームワークであるLR3Dを提案する。
我々のフレームワークは汎用的であり、3D検出手法を広く活用する可能性がある。
論文 参考訳(メタデータ) (2024-03-14T09:54:31Z) - Estimating Distances Between People using a Single Overhead Fisheye
Camera with Application to Social-Distancing Oversight [8.337649176647645]
屋内での人との距離をモニタリングするための2つのアプローチを提案する。
1つの方法は魚眼レンズの幾何学的モデルを利用し、もう1つはニューラルネットワークを使って3D世界距離を予測する。
アルゴリズムは1-2フィートの誤差と95%以上の精度で社会的距離違反を検出する。
論文 参考訳(メタデータ) (2023-03-21T00:50:14Z) - Object Dimension Extraction for Environment Mapping with Low Cost
Cameras Fused with Laser Ranging [0.0]
我々はステレオカメラと融合したレーザ測位法を用いてマッピング対象の次元を抽出した。
歪みはカメラの数学的モデルを用いて校正された。
レーザレンジファインダ(LRF)とノイズ低減視覚データを用いて対象パラメータを同定した。
論文 参考訳(メタデータ) (2023-02-01T04:35:16Z) - Far3Det: Towards Far-Field 3D Detection [67.38417186733487]
我々は、観測者から一定の距離を超える物体の遠距離3次元検出(Far3Det)の課題に焦点を当てる。
Far3Detは高速道路で動く自動運転車(AV)にとって特に重要である。
我々は,nuScenesデータセットからよく注釈付きシーンを抽出し,十分に注釈付き遠距離フィールド検証セットを導出する手法を開発した。
Far3Detの評価プロトコルを提案し,Far3Detの様々な3次元検出手法を提案する。
論文 参考訳(メタデータ) (2022-11-25T02:07:57Z) - One Object at a Time: Accurate and Robust Structure From Motion for
Robots [14.671110096215113]
視線固定ロボットは、固定対象物と周辺対象物の相対位置との距離を即時、正確に、かつ、堅牢に知覚する。
動きながら1つの物体を見る行為である固定は、3次元空間の幾何学における規則性を生かして情報を得る方法を示す。
論文 参考訳(メタデータ) (2022-07-31T18:17:04Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Gated3D: Monocular 3D Object Detection From Temporal Illumination Cues [28.806932489163888]
低コストな単分子ゲート型画像処理装置から時間的照度を利用した新しい3次元物体検出法を提案する。
提案手法は,1万km以上の運転データから得られたゲート画像を含む新しい3次元検出データセットを用いて評価する。
論文 参考訳(メタデータ) (2021-02-06T16:06:51Z) - Baseline and Triangulation Geometry in a Standard Plenoptic Camera [6.719751155411075]
レンズカメラに三角測量を適用可能な幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
論文 参考訳(メタデータ) (2020-10-09T15:31:14Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。