論文の概要: Autonomous bot with ML-based reactive navigation for indoor environment
- arxiv url: http://arxiv.org/abs/2111.12542v1
- Date: Wed, 24 Nov 2021 15:24:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:13:43.825666
- Title: Autonomous bot with ML-based reactive navigation for indoor environment
- Title(参考訳): MLに基づく屋内環境のためのリアクティブナビゲーションによる自律型ボット
- Authors: Yash Srivastava, Saumya Singh, S.P. Syed Ibrahim
- Abstract要約: 本稿では,機械学習を用いて最適な障害物回避行動を予測することで,コストと精度のバランスをとるロボットを開発することを目的とする。
基盤となるハードウェアはArduino UnoとRaspberry Pi 3Bで構成されている。
システムは2-WDロボットのシャーシに装着され、散らかった屋内環境でテストされ、最も印象的な結果が得られる。
- 参考スコア(独自算出の注目度): 0.7519872646378835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local or reactive navigation is essential for autonomous mobile robots which
operate in an indoor environment. Techniques such as SLAM, computer vision
require significant computational power which increases cost. Similarly, using
rudimentary methods makes the robot susceptible to inconsistent behavior. This
paper aims to develop a robot that balances cost and accuracy by using machine
learning to predict the best obstacle avoidance move based on distance inputs
from four ultrasonic sensors that are strategically mounted on the front,
front-left, front-right, and back of the robot. The underlying hardware
consists of an Arduino Uno and a Raspberry Pi 3B. The machine learning model is
first trained on the data collected by the robot. Then the Arduino continuously
polls the sensors and calculates the distance values, and in case of critical
need for avoidance, a suitable maneuver is made by the Arduino. In other
scenarios, sensor data is sent to the Raspberry Pi using a USB connection and
the machine learning model generates the best move for navigation, which is
sent to the Arduino for driving motors accordingly. The system is mounted on a
2-WD robot chassis and tested in a cluttered indoor setting with most
impressive results.
- Abstract(参考訳): 屋内環境で動作する自律移動ロボットには,局所的あるいはリアクティブなナビゲーションが不可欠である。
SLAMやコンピュータビジョンのような技術は、コストを増大させる計算能力を必要とする。
同様に、初歩的な方法を用いることで、ロボットは一貫性のない行動に敏感になる。
本稿では,前,前,右,後ろに戦略的に装着された4つの超音波センサからの距離入力に基づいて,機械学習を用いて最適な障害物回避動作を予測し,コストと精度のバランスをとるロボットを開発することを目的とする。
基盤となるハードウェアはArduino UnoとRaspberry Pi 3Bで構成されている。
機械学習モデルは、まずロボットが収集したデータに基づいて訓練される。
その後、Arduinoはセンサーを連続的にポーリングし、距離値を計算する。
他のシナリオでは、センサーデータはusb接続を使ってraspberry piに送信され、機械学習モデルはナビゲーションのための最良の動きを生成し、それに従ってarduinoにモーターを駆動する。
システムは2-WDロボットのシャーシに装着され、散らかった屋内環境でテストされる。
関連論文リスト
- RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Grasping Student: semi-supervised learning for robotic manipulation [0.7282230325785884]
本研究では,ロボットとのインタラクションを伴わずに収集する製品画像を利用した半教師付き把握システムの設計を行う。
少数のロボットトレーニングサンプルの体制では、ラベルのないデータを活用することで、10倍のデータセットサイズでパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-03-08T09:03:11Z) - ClipBot: an educational, physically impaired robot that learns to walk
via genetic algorithm optimization [0.0]
ClipBotは低コストで自作のロボットで、骨格は2枚の紙クリップでできている。
Arduinoナノコントローラは、紙のクリップを動かす2つのサーボモーターを作動させる。
高校生はロボットの動きを最適化する遺伝的アルゴリズムの実装を依頼された。
論文 参考訳(メタデータ) (2022-10-26T13:31:43Z) - See What the Robot Can't See: Learning Cooperative Perception for Visual
Navigation [11.943412856714154]
センサをトレーニングして、関連する視点情報を移動ロボットにエンコードし、伝達する。
我々は、全てのセンサーが目標への最短経路に沿って方向を予測できるようにするという課題を克服する。
その結果,センサとロボットの通信により,SPLの最大2.0倍の改善が達成された。
論文 参考訳(メタデータ) (2022-08-01T11:37:01Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z) - Deep Reinforcement learning for real autonomous mobile robot navigation
in indoor environments [0.0]
本研究では,地図やプランナーを使わずに,未知の環境下での自律型自律学習ロボットナビゲーションの概念を実証する。
ロボットの入力は、2DレーザースキャナーとRGB-Dカメラからの融合データと目標への向きのみである。
Asynchronous Advantage Actor-Critic Network(GA3C)の出力動作は、ロボットの線形および角速度である。
論文 参考訳(メタデータ) (2020-05-28T09:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。