論文の概要: OpenDR: An Open Toolkit for Enabling High Performance, Low Footprint
Deep Learning for Robotics
- arxiv url: http://arxiv.org/abs/2203.00403v1
- Date: Tue, 1 Mar 2022 12:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 14:51:14.424916
- Title: OpenDR: An Open Toolkit for Enabling High Performance, Low Footprint
Deep Learning for Robotics
- Title(参考訳): OpenDR: ロボットのための高性能でフットプリントの少ないディープラーニングを実現するためのオープンツールキット
- Authors: N. Passalis, S. Pedrazzi, R. Babuska, W. Burgard, D. Dias, F. Ferro,
M. Gabbouj, O. Green, A. Iosifidis, E. Kayacan, J. Kober, O. Michel, N.
Nikolaidis, P. Nousi, R. Pieters, M. Tzelepi, A. Valada, and A. Tefas
- Abstract要約: ロボットのためのオープンディープラーニングツールキット(OpenDR)について紹介する。
OpenDRは、ロボット企業や研究機関が容易に利用できるオープンで、非プロプライエタリで、効率的で、モジュール化されたツールキットの開発を目指している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing Deep Learning (DL) frameworks typically do not provide ready-to-use
solutions for robotics, where very specific learning, reasoning, and embodiment
problems exist. Their relatively steep learning curve and the different
methodologies employed by DL compared to traditional approaches, along with the
high complexity of DL models, which often leads to the need of employing
specialized hardware accelerators, further increase the effort and cost needed
to employ DL models in robotics. Also, most of the existing DL methods follow a
static inference paradigm, as inherited by the traditional computer vision
pipelines, ignoring active perception, which can be employed to actively
interact with the environment in order to increase perception accuracy. In this
paper, we present the Open Deep Learning Toolkit for Robotics (OpenDR). OpenDR
aims at developing an open, non-proprietary, efficient, and modular toolkit
that can be easily used by robotics companies and research institutions to
efficiently develop and deploy AI and cognition technologies to robotics
applications, providing a solid step towards addressing the aforementioned
challenges. We also detail the design choices, along with an abstract interface
that was created to overcome these challenges. This interface can describe
various robotic tasks, spanning beyond traditional DL cognition and inference,
as known by existing frameworks, incorporating openness, homogeneity and
robotics-oriented perception e.g., through active perception, as its core
design principles.
- Abstract(参考訳): 既存のディープラーニング(DL)フレームワークは、通常、非常に特定の学習、推論、実施上の問題が存在するロボット工学に使えるソリューションを提供しない。
比較的急勾配の学習曲線とDLが採用する方法論は、従来のアプローチと異なり、DLモデルの複雑さが高いため、特殊なハードウェアアクセラレーターを採用する必要がしばしばあり、ロボット工学におけるDLモデルの使用に必要な労力とコストが増大する。
また、既存のDL手法の多くは、従来のコンピュータビジョンパイプラインが継承した静的推論パラダイムに従い、アクティブな知覚を無視し、知覚精度を高めるために環境とアクティブに対話するために使用できる。
本稿では,Open Deep Learning Toolkit for Robotics (OpenDR)を紹介する。
OpenDRは、ロボット企業や研究機関がAIと認知技術をロボットアプリケーションに効率的に開発、展開するために、オープンで、非プロプライエタリで、効率的で、モジュール化されたツールキットを開発することを目的としている。
また、これらの課題を克服するために作成された抽象インターフェースとともに、設計の選択を詳述した。
このインターフェースは、従来のDL認知と推論を超えて、オープン性、均一性、ロボット指向の知覚を、例えばアクティブな知覚を通じて、その中核となる設計原則として組み込むことができる。
関連論文リスト
- RoboGrasp: A Universal Grasping Policy for Robust Robotic Control [8.189496387470726]
RoboGraspは、トレーニング済みの把握検出モデルとロボット学習を統合する、普遍的な把握ポリシーフレームワークである。
把握精度、安定性、一般化性を大幅に向上させ、数ショットの学習と把握ボックスのプロンプトタスクで最大34%の成功率を達成する。
論文 参考訳(メタデータ) (2025-02-05T11:04:41Z) - Robotic Control via Embodied Chain-of-Thought Reasoning [86.6680905262442]
学習したロボット制御ポリシーの鍵となる制限は、トレーニングデータの外部で一般化できないことである。
視覚言語行動モデル(VLA)に関する最近の研究は、大規模なインターネット事前学習型視覚言語モデルを使用することで、その堅牢性と一般化能力を大幅に向上させることができることを示した。
ロボットの動作を予測する前に、VLAに対して、計画、サブタスク、動作、視覚的接地機能について複数の推論を行うために、VLAに対してEmbodied Chain-of-Thought Reasoning (ECoT)を導入する。
論文 参考訳(メタデータ) (2024-07-11T17:31:01Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Toward General-Purpose Robots via Foundation Models: A Survey and Meta-Analysis [82.59451639072073]
汎用ロボットはどんな環境でも、どんな物体でもシームレスに動作し、様々なスキルを使って様々なタスクをこなす。
コミュニティとしては、特定のタスク用に設計し、特定のデータセットでトレーニングし、特定の環境にデプロイすることで、ほとんどのロボットシステムを制約してきました。
ウェブスケールで大規模で大容量の事前学習型モデルの優れたオープンセット性能とコンテンツ生成能力に感銘を受けて,本調査は,汎用ロボティクスに基礎モデルを適用する方法について検討した。
論文 参考訳(メタデータ) (2023-12-14T10:02:55Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - Modular approach to data preprocessing in ALOHA and application to a
smart industry use case [0.0]
データ前処理と変換パイプラインをサポートするために、ALOHAツールフローに統合されたモジュラーアプローチに対処する。
提案手法の有効性を示すために,キーワードスポッティングのユースケースに関する実験結果を示す。
論文 参考訳(メタデータ) (2021-02-02T06:48:51Z) - Towards open and expandable cognitive AI architectures for large-scale
multi-agent human-robot collaborative learning [5.478764356647437]
多エージェントLfDロボット学習のための新しい認知アーキテクチャを導入し、オープンでスケーラブルで拡張可能なロボットシステムの信頼性の高い展開を可能にする。
この概念化は、ロボットプラットフォームのネットワークの端ノードで動作する複数のAI駆動の認知プロセスを採用することに依存している。
提案フレームワークの適用性は,実世界の産業ケーススタディの例を用いて説明できる。
論文 参考訳(メタデータ) (2020-12-15T09:49:22Z) - Variable Compliance Control for Robotic Peg-in-Hole Assembly: A Deep
Reinforcement Learning Approach [4.045850174820418]
ホールの位置不確実性を考慮したペグ・イン・ホール問題の解法を提案する。
位置制御ロボットのための学習フレームワークを,コンタクトリッチ挿入タスクにおいて広範囲に評価した。
論文 参考訳(メタデータ) (2020-08-24T06:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。