論文の概要: Embedded Computer Vision System Applied to a Four-Legged Line Follower
Robot
- arxiv url: http://arxiv.org/abs/2101.04804v1
- Date: Tue, 12 Jan 2021 23:52:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:31:44.469845
- Title: Embedded Computer Vision System Applied to a Four-Legged Line Follower
Robot
- Title(参考訳): 4脚ラインフォロワロボットへの組込み型コンピュータビジョンシステムの適用
- Authors: Beatriz Arruda Asfora
- Abstract要約: 本プロジェクトは,ロボットの視覚を動作に結びつけるコンピュータビジョン組み込みシステムを用いて,ロボットを駆動することを目的としている。
このロボットは典型的な移動ロボットの課題であるラインフォローに適用される。
次に移動する場所の決定は、経路の線の中心に基づいており、完全に自動化されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robotics can be defined as the connection of perception to action. Taking
this further, this project aims to drive a robot using an automated computer
vision embedded system, connecting the robot's vision to its behavior. In order
to implement a color recognition system on the robot, open source tools are
chosen, such as Processing language, Android system, Arduino platform and Pixy
camera. The constraints are clear: simplicity, replicability and financial
viability. In order to integrate Robotics, Computer Vision and Image
Processing, the robot is applied on a typical mobile robot's issue: line
following. The problem of distinguishing the path from the background is
analyzed through different approaches: the popular Otsu's Method, thresholding
based on color combinations through experimentation and color tracking via hue
and saturation. Decision making of where to move next is based on the line
center of the path and is fully automated. Using a four-legged robot as
platform and a camera as its only sensor, the robot is capable of successfully
follow a line. From capturing the image to moving the robot, it's evident how
integrative Robotics can be. The issue of this paper alone involves knowledge
of Mechanical Engineering, Electronics, Control Systems and Programming.
Everything related to this work was documented and made available on an open
source online page, so it can be useful in learning and experimenting with
robotics.
- Abstract(参考訳): ロボットは知覚と行動の結びつきとして定義することができる。
このプロジェクトは、ロボットの視覚と動作をつなぐ自動コンピュータビジョン組み込みシステムを使用して、ロボットを駆動することを目的としている。
ロボットに色認識システムを実装するために、処理言語、androidシステム、arduinoプラットフォーム、pixyカメラなどのオープンソースツールが選択される。
制約は明確です – 単純さ,複製性,財務性です。
ロボット工学、コンピュータビジョン、画像処理を統合するために、このロボットは典型的な移動ロボットの課題であるラインフォローに適用される。
パスと背景を区別する問題は、一般的な大津法、実験による色の組み合わせに基づくしきい値、彩度と彩度による色追跡など、様々なアプローチで分析される。
次に移動する場所の決定は、経路の線の中心に基づいており、完全に自動化されている。
4本足のロボットをプラットフォームとして、カメラを唯一のセンサーとして使用することで、ロボットはラインを追跡することに成功した。
イメージのキャプチャからロボットの移動まで、統合ロボティクスがいかに実現可能かは明らかです。
本論文の課題は機械工学、エレクトロニクス、制御システム、プログラミングに関する知識のみである。
この作業に関するすべてがドキュメント化され、オープンソースのオンラインページで利用可能になったため、ロボット工学の学習と実験に役立てることができる。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Image-based Pose Estimation and Shape Reconstruction for Robot
Manipulators and Soft, Continuum Robots via Differentiable Rendering [20.62295718847247]
自律システムは3D世界における動きを捉えローカライズするためにセンサーに依存しているため、計測データからの状態推定はロボットアプリケーションにとって極めて重要である。
本研究では,カメラ画像から画像に基づくロボットのポーズ推定と形状再構成を実現する。
柔らかい連続ロボットの形状再構成において,幾何学的形状プリミティブを用いる手法が高精度であり,ロボットマニピュレータの姿勢推定が可能であることを実証した。
論文 参考訳(メタデータ) (2023-02-27T18:51:29Z) - Intelligent Motion Planning for a Cost-effective Object Follower Mobile
Robotic System with Obstacle Avoidance [0.2062593640149623]
本稿では,ロボットビジョンと深層学習を用いて,必要な直線および角速度を求めるロボットシステムを提案する。
私たちが提案している新しい手法は、任意の種類の照明において、ユニークな色付けされた物体の位置を検出するのに正確である。
論文 参考訳(メタデータ) (2021-09-06T19:19:47Z) - Know Thyself: Transferable Visuomotor Control Through Robot-Awareness [22.405839096833937]
新しいロボットをスクラッチからトレーニングするためには、通常大量のロボット固有のデータを生成する必要がある。
簡単なロボット「自己認識」を活用する「ロボット認識」ソリューションパラダイムを提案する。
シミュレーションおよび実際のロボットにおけるテーブルトップ操作に関する実験により、これらのプラグインの改善により、ビジュモータコントローラの転送性が劇的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-19T17:56:04Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。