論文の概要: An Embarrassingly Pragmatic Introduction to Vision-based Autonomous
Robots
- arxiv url: http://arxiv.org/abs/2112.05534v2
- Date: Tue, 14 Dec 2021 05:19:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-19 12:53:37.475039
- Title: An Embarrassingly Pragmatic Introduction to Vision-based Autonomous
Robots
- Title(参考訳): 視覚に基づく自律ロボットの非現実的な紹介
- Authors: Marcos V. Conde
- Abstract要約: 視覚情報のみを用いてシーンを理解できる小型の自律走行車を開発した。
我々は、ロボットと自動運転の現在の状況と、この分野で見られる技術的、倫理的制約について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autonomous robots are currently one of the most popular Artificial
Intelligence problems, having experienced significant advances in the last
decade, from Self-driving cars and humanoids to delivery robots and drones.
Part of the problem is to get a robot to emulate the perception of human
beings, our sense of sight, replacing the eyes with cameras and the brain with
mathematical models such as Neural Networks. Developing an AI able to drive a
car without human intervention and a small robot to deliver packages in the
city may seem like different problems, nevertheless from the point of view of
perception and vision, both problems have several similarities. The main
solutions we currently find focus on the environment perception through visual
information using Computer Vision techniques, Machine Learning, and various
algorithms to make the robot understand the environment or scene, move, adapt
its trajectory and perform its tasks (maintenance, exploration, etc.) without
the need for human intervention. In this work, we develop a small-scale
autonomous vehicle from scratch, capable of understanding the scene using only
visual information, navigating through industrial environments, detecting
people and obstacles, or performing simple maintenance tasks. We review the
state-of-the-art of fundamental problems and demonstrate that many methods
employed at small-scale are similar to the ones employed in real Self-driving
cars from companies like Tesla or Lyft. Finally, we discuss the current state
of Robotics and autonomous driving and the technological and ethical
limitations that we can find in this field.
- Abstract(参考訳): 自動運転車やヒューマノイドから配達ロボットやドローンまで、過去10年間にかなりの進歩を遂げてきた。
問題の一部は、ロボットに人間の知覚、視覚の感覚を模倣させ、眼をカメラに置き換え、脳をニューラルネットワークのような数学的モデルに置き換えさせることだ。
人間の介入なしに車を運転できるAIと、市内で荷物を配達する小さなロボットを開発することは、異なる問題に思えるかもしれないが、知覚とビジョンの観点から見れば、どちらの問題にもいくつかの類似点がある。
ロボットが環境やシーンを理解し、動き、軌道に適応し、人間の介入なしにそのタスク(メンテナンス、探索など)を実行するために、コンピュータビジョン技術、機械学習、様々なアルゴリズムを使って、視覚情報を通じた環境認識にフォーカスしています。
本研究では,視覚情報のみを用いてシーンを把握し,産業環境をナビゲートし,人や障害物を検知し,簡単なメンテナンス作業を行う,スクラッチから小型自動運転車を開発する。
我々は、基本的な問題の最先端をレビューし、小規模で採用されている多くの手法が、teslaやlyftのような実際の自動運転車で採用されている方法に似ていることを実証する。
最後に、ロボット工学と自動運転の現状と、この分野で見られる技術的、倫理的な制限について論じる。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Surround-View Cameras based Holistic Visual Perception for Automated
Driving [0.6091702876917281]
我々は,高い性能と低計算量を有する近接場認識アルゴリズムの開発に焦点をあてる。
コンピュータのこれらの能力は、自動運転車、拡張現実、アーキテクチャサーベイなど、さまざまな用途に欠かせない。
論文 参考訳(メタデータ) (2022-06-11T14:51:30Z) - Neuroscience-inspired perception-action in robotics: applying active
inference for state estimation, control and self-perception [2.1067139116005595]
神経科学の発見が、ロボット工学における現在の推定と制御アルゴリズムを改善する機会をいかに開放するかについて議論する。
本稿では,実体プラットフォーム上でのこのような計算モデルの開発から得られた実験と教訓を要約する。
論文 参考訳(メタデータ) (2021-05-10T10:59:38Z) - Design and Development of Autonomous Delivery Robot [0.16863755729554888]
私たちは、VNITキャンパス内のパッケージを人間の通信なしで配信する自律移動ロボットプラットフォームを提示します。
この論文では、屋外環境で働く自律ロボットのパイプライン全体について説明する。
論文 参考訳(メタデータ) (2021-03-16T17:57:44Z) - Sensorimotor representation learning for an "active self" in robots: A
model survey [10.649413494649293]
人間では、これらの能力は宇宙で私たちの身体を知覚する能力と関連していると考えられている。
本稿では,これらの能力の発達過程について概説する。
人工エージェントにおける自己感覚の出現を可能にする理論計算フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-25T16:31:01Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。