論文の概要: Robust Multi-Modal Policies for Industrial Assembly via Reinforcement
Learning and Demonstrations: A Large-Scale Study
- arxiv url: http://arxiv.org/abs/2103.11512v1
- Date: Sun, 21 Mar 2021 23:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 08:41:51.514011
- Title: Robust Multi-Modal Policies for Industrial Assembly via Reinforcement
Learning and Demonstrations: A Large-Scale Study
- Title(参考訳): 強化学習と実証による産業会議のロバストなマルチモーダル政策--大規模研究
- Authors: Jianlan Luo, Oleg Sushkov, Rugile Pevceviciute, Wenzhao Lian, Chang
Su, Mel Vecerik, Ning Ye, Stefan Schaal, Jon Scholz
- Abstract要約: 私たちは、この採用の欠如に本当に責任があるのは、Deep Reinforcement Learning(DRL)のための禁止的に大きな設計スペースであると主張しています。
これらの技術を産業の主流に押し込むには、学術的考え方とは大きく異なる業界指向のパラダイムが必要です。
この研究は、DRLが確立された工学的アプローチだけでなく、人間のモーターシステムよりも優れていることを示唆しています。
- 参考スコア(独自算出の注目度): 14.696027001985554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past several years there has been a considerable research investment
into learning-based approaches to industrial assembly, but despite significant
progress these techniques have yet to be adopted by industry. We argue that it
is the prohibitively large design space for Deep Reinforcement Learning (DRL),
rather than algorithmic limitations $\textit{per se}$, that are truly
responsible for this lack of adoption. Pushing these techniques into the
industrial mainstream requires an industry-oriented paradigm which differs
significantly from the academic mindset. In this paper we define criteria for
industry-oriented DRL, and perform a thorough comparison according to these
criteria of one family of learning approaches, DRL from demonstration, against
a professional industrial integrator on the recently established NIST assembly
benchmark. We explain the design choices, representing several years of
investigation, which enabled our DRL system to consistently outperform the
integrator baseline in terms of both speed and reliability. Finally, we
conclude with a competition between our DRL system and a human on a challenge
task of insertion into a randomly moving target. This study suggests that DRL
is capable of outperforming not only established engineered approaches, but the
human motor system as well, and that there remains significant room for
improvement. Videos can be found on our project website:
https://sites.google.com/view/shield-nist.
- Abstract(参考訳): 過去数年間、産業集合体への学習に基づくアプローチにかなりの研究投資がなされてきたが、大きな進歩にもかかわらず、これらの技術はまだ産業に採用されていない。
我々は、アルゴリズムの制約である$\textit{per se}$ではなく、Deep Reinforcement Learning(DRL)の禁止された大きなデザインスペースであると主張している。
これらのテクニックを産業の主流に押し込むには、学術的な考え方と大きく異なる産業指向のパラダイムが必要です。
本稿では,産業指向drlの基準を定義し,これら1つの学習手法であるdrlを,最近確立したnistアセンブリベンチマークにおいて,プロの産業インテグレータに対して徹底的に比較する。
設計の選択肢を説明し、数年にわたる調査を表現し、drlシステムは、速度と信頼性の両面で、インテグレータベースラインを一貫して上回ることを可能にしました。
最後に、DRLシステムと人間との競合を、ランダムに動くターゲットに挿入するチャレンジタスクで結論付ける。
この研究は、DRLが確立された技術アプローチだけでなく、人間のモーターシステムにも優れており、改善の余地が依然として大きいことを示唆している。
ビデオはプロジェクトのWebサイトで見ることができる。
関連論文リスト
- Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Deep reinforcement learning for machine scheduling: Methodology, the
state-of-the-art, and future directions [2.4541568670428915]
マシンスケジューリングは、製造ルールとジョブ仕様に準拠しながら、マシンへのジョブ割り当てを最適化することを目的としている。
人工知能の重要な構成要素であるDeep Reinforcement Learning (DRL)は、ゲームやロボティクスなど、さまざまな分野において有望であることを示している。
本稿では、DRLに基づくアプローチの総合的なレビューと比較を行い、その方法論、応用、利点、限界を明らかにする。
論文 参考訳(メタデータ) (2023-10-04T22:45:09Z) - RLLTE: Long-Term Evolution Project of Reinforcement Learning [48.181733263496746]
本稿では,RLLTEについて紹介する。RLLTEは長期的進化であり,高度にモジュール化された,強化学習研究と応用のためのオープンソースフレームワークである。
トップノーチアルゴリズムの実装を提供するだけでなく、RLLTEはアルゴリズム開発のためのツールキットとしても機能する。
RLLTEは、RLエンジニアリングの基準を設定し、産業や学界に高い刺激を与えると期待されている。
論文 参考訳(メタデータ) (2023-09-28T12:30:37Z) - An Architecture for Deploying Reinforcement Learning in Industrial
Environments [3.18294468240512]
OPC UAをベースとしたオペレーショナル・テクノロジー(OT)対応のRLアーキテクチャを提案する。
我々は,汎用的なプラグアンドプレイ型アプローチでRLエージェントを交換するOPC UA情報モデルを定義する。
おもちゃの例を解くことで、このアーキテクチャが最適なポリシーを決定することができることを示す。
論文 参考訳(メタデータ) (2023-06-02T10:22:01Z) - A Mini Review on the utilization of Reinforcement Learning with OPC UA [0.9208007322096533]
強化学習(Reinforcement Learning, RL)は、ロボット工学、自然言語処理、ゲームプレイといった様々な分野に応用された強力な機械学習パラダイムである。
この可能性を完全に活用する鍵は、既存の産業システムへのRLのシームレスな統合である。
この研究は、このギャップを埋めるために、両方の技術の技術的な概要を簡潔に提供し、半発掘的な文献レビューを実施している。
論文 参考訳(メタデータ) (2023-05-24T13:03:48Z) - Reinforcement Learning Applied to Trading Systems: A Survey [5.118560450410779]
近年の成果と強化学習の有名さは、取引業務における採用率を高めている。
このレビューは、研究者の標準遵守へのコミットメントによって、この研究分野の発展を促進する試みである。
論文 参考訳(メタデータ) (2022-11-01T21:26:12Z) - Pessimistic Model Selection for Offline Deep Reinforcement Learning [56.282483586473816]
深層強化学習(DRL)は多くのアプリケーションにおいてシーケンシャルな意思決定問題を解決する大きな可能性を示している。
主要な障壁の1つは、DRLが学んだ政策の一般化性の低下につながる過度に適合する問題である。
理論的保証のあるオフラインDRLに対する悲観的モデル選択(PMS)手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T06:29:49Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。