論文の概要: Robotic Room Traversal using Optical Range Finding
- arxiv url: http://arxiv.org/abs/2004.08368v1
- Date: Fri, 17 Apr 2020 17:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 13:43:47.570230
- Title: Robotic Room Traversal using Optical Range Finding
- Title(参考訳): 光レンジ検出を用いたロボットルームトラバーサル
- Authors: Cole Smith, Eric Lin, Dennis Shasha
- Abstract要約: 我々のアルゴリズムは、ロボットから最も近い障害物まで360度の距離に依存する。
我々は、より一般的なだけでなく、光検出やレンジといった高価なソリューションの代わりに、独自のレーザーレンジ探索ソリューションを開発しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider the goal of visiting every part of a room that is not blocked by
obstacles. Doing so efficiently requires both sensors and planning. Our
findings suggest a method of inexpensive optical range finding for robotic room
traversal. Our room traversal algorithm relies upon the approximate distance
from the robot to the nearest obstacle in 360 degrees. We then choose the path
with the furthest approximate distance. Since millimeter-precision is not
required for our problem, we have opted to develop our own laser range finding
solution, in lieu of using more common, but also expensive solutions like light
detection and ranging (LIDAR). Rather, our solution uses a laser that casts a
visible dot on the target and a common camera (an iPhone, for example). Based
upon where in the camera frame the laser dot is detected, we may calculate an
angle between our target and the laser aperture. Using this angle and the known
distance between the camera eye and the laser aperture, we may solve all sides
of a trigonometric model which provides the distance between the robot and the
target.
- Abstract(参考訳): 障害によってブロックされない部屋のすべての部分を訪れるという目標を考えてみましょう。
効率的に行うには、センサーと計画の両方が必要です。
ロボット室トラバーサルのための安価な光レンジ探索法を提案する。
我々の部屋の移動アルゴリズムは、ロボットから最も近い障害物まで360度の距離に依存する。
次に、最も近い距離の経路を選択する。
我々の問題に対してミリ精度は必須ではないため、より一般的なものの代わりに、光検出やレンジ(LIDAR)といった高価なソリューションの代わりに、独自のレーザーレンジ探索ソリューションを開発することを選択した。
私たちのソリューションでは、ターゲットに可視ドットを投射するレーザーと、一般的なカメラ(例えばiPhone)を使用します。
カメラフレームのどこでレーザードットが検出されたかに基づいて、ターゲットとレーザー開口部の角度を計算することができる。
この角度とカメラ・アイとレーザー・アパーチャの間の既知の距離を用いて、ロボットとターゲットの間の距離を提供する三角モデルの全辺を解くことができる。
関連論文リスト
- CamLoPA: A Hidden Wireless Camera Localization Framework via Signal Propagation Path Analysis [59.86280992504629]
CamLoPAは、トレーニング不要の無線カメラ検出およびローカライゼーションフレームワークである。
低コストの商用オフ・ザ・シェルフ(COTS)デバイスを使用して、最小限の活動空間制約で運用する。
95.37%のスヌーピングカメラ検出精度と17.23の平均位置誤差を達成する。
論文 参考訳(メタデータ) (2024-09-23T16:23:50Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Estimating Distances Between People using a Single Overhead Fisheye
Camera with Application to Social-Distancing Oversight [8.337649176647645]
屋内での人との距離をモニタリングするための2つのアプローチを提案する。
1つの方法は魚眼レンズの幾何学的モデルを利用し、もう1つはニューラルネットワークを使って3D世界距離を予測する。
アルゴリズムは1-2フィートの誤差と95%以上の精度で社会的距離違反を検出する。
論文 参考訳(メタデータ) (2023-03-21T00:50:14Z) - Object Dimension Extraction for Environment Mapping with Low Cost
Cameras Fused with Laser Ranging [0.0]
我々はステレオカメラと融合したレーザ測位法を用いてマッピング対象の次元を抽出した。
歪みはカメラの数学的モデルを用いて校正された。
レーザレンジファインダ(LRF)とノイズ低減視覚データを用いて対象パラメータを同定した。
論文 参考訳(メタデータ) (2023-02-01T04:35:16Z) - One Object at a Time: Accurate and Robust Structure From Motion for
Robots [14.671110096215113]
視線固定ロボットは、固定対象物と周辺対象物の相対位置との距離を即時、正確に、かつ、堅牢に知覚する。
動きながら1つの物体を見る行為である固定は、3次元空間の幾何学における規則性を生かして情報を得る方法を示す。
論文 参考訳(メタデータ) (2022-07-31T18:17:04Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Baseline and Triangulation Geometry in a Standard Plenoptic Camera [6.719751155411075]
レンズカメラに三角測量を適用可能な幾何学的光場モデルを提案する。
提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。
論文 参考訳(メタデータ) (2020-10-09T15:31:14Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。