論文の概要: SegVisRL: Visuomotor Development for a Lunar Rover for Hazard Avoidance
using Camera Images
- arxiv url: http://arxiv.org/abs/2103.14422v1
- Date: Fri, 26 Mar 2021 12:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:59:12.692213
- Title: SegVisRL: Visuomotor Development for a Lunar Rover for Hazard Avoidance
using Camera Images
- Title(参考訳): SegVisRL:カメラ画像を用いた危険回避用ルナーローバーの開発
- Authors: Tamir Blum, Gabin Paillet, Watcharawut Masawat, Mickael Laine and
Kazuya Yoshida
- Abstract要約: 動物では生体運動系が生存に不可欠であり、ヒト内で複雑な動物が発達することは、地球上の種としての成功の大きな要因である。
本論文では,複雑な岩形の物体が危険を表わすように,ナビゲーションと障害物回避のためのロボット内のバイスモメータシステムの開発を実証する。
- 参考スコア(独自算出の注目度): 0.9414651358362389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The visuomotor system of any animal is critical for its survival, and the
development of a complex one within humans is large factor in our success as a
species on Earth. This system is an essential part of our ability to adapt to
our environment. We use this system continuously throughout the day, when
picking something up, or walking around while avoiding bumping into objects.
Equipping robots with such capabilities will help produce more intelligent
locomotion with the ability to more easily understand their surroundings and to
move safely. In particular, such capabilities are desirable for traversing the
lunar surface, as it is full of hazardous obstacles, such as rocks. These
obstacles need to be identified and avoided in real time. This paper seeks to
demonstrate the development of a visuomotor system within a robot for
navigation and obstacle avoidance, with complex rock shaped objects
representing hazards. Our approach uses deep reinforcement learning with only
image data. In this paper, we compare the results from several neural network
architectures and a preprocessing methodology which includes producing a
segmented image and downsampling.
- Abstract(参考訳): 動物では生体運動系が生存に不可欠であり、ヒト内で複雑な動物が発達することは、地球上の種としての成功の大きな要因である。
このシステムは私たちの環境に適応する能力の重要な部分です。
私たちはこのシステムを一日中使い続け、何かを拾ったり、物にぶつからないように歩き回ったりしています。
このような能力を備えたロボットは、よりインテリジェントなロコモーションを生み出し、周囲の状況をより容易に理解し、安全に移動できるようにする。
特に、このような能力は、岩のような危険な障害物に満ちているため、月面を横断するのに望ましい。
これらの障害をリアルタイムで特定し、回避する必要がある。
本稿では,危険度を表す複雑な岩形物体を用いて,ナビゲーションと障害物回避のためのロボット内でのビジュモータシステムの開発を実証する。
我々のアプローチは画像データのみを用いた深層強化学習を用いる。
本稿では,いくつかのニューラルネットワークアーキテクチャの結果と,分割画像の生成とダウンサンプリングを含む事前処理手法を比較する。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Occlusion-Aware Crowd Navigation Using People as Sensors [8.635930195821263]
このような設定では、センサーの視野が限られているため、オクルージョンが非常に一般的である。
これまでの研究では、人間のエージェントの観察された対話的行動が潜在的な障害を推定するために用いられることが示されている。
本稿では,このような社会的推論手法を計画パイプラインに統合することを提案する。
論文 参考訳(メタデータ) (2022-10-02T15:18:32Z) - Learning to Assess Danger from Movies for Cooperative Escape Planning in
Hazardous Environments [4.042350304426974]
このようなシナリオを実世界で再現することは困難であり、これはトレーニングとテストの目的で必要である。
現在のシステムは、このような危険な環境で利用可能なリッチなマルチモーダルデータを十分に活用することはできない。
本稿では,映画やテレビ番組の形式で利用可能な膨大な量の視覚コンテンツを活用し,現実世界で遭遇する危険環境を表現できるデータセットを開発することを提案する。
論文 参考訳(メタデータ) (2022-07-27T21:07:15Z) - Egocentric Human Trajectory Forecasting with a Wearable Camera and
Multi-Modal Fusion [24.149925005674145]
混雑した空間における自我中心型カメラ装着者(自我者)の軌道予測の問題に対処する。
異なるカメラ装着者のデータから得られた軌道予測能力は、視覚障害者のナビゲーションを支援するために転送することができる。
トランスフォーマーをベースとしたエンコーダ・デコーダニューラルネットワークモデルが,カメラ装着者の将来の軌道を予測するために,新しいカスケード型クロスアテンション機構と統合されている。
論文 参考訳(メタデータ) (2021-11-01T14:58:05Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。