論文の概要: Path Planning of Cleaning Robot with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2208.08211v1
- Date: Wed, 17 Aug 2022 10:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:15:53.776616
- Title: Path Planning of Cleaning Robot with Reinforcement Learning
- Title(参考訳): 強化学習による清掃ロボットの経路計画
- Authors: Woohyeon Moon, Bumgeun Park, Sarvar Hussain Nengroo, Taeyoung Kim, and
Dongsoo Har
- Abstract要約: 提案手法は,元のPPOに対するトレーニング性能の向上と収束速度の向上を実現する。
実験の結果,提案手法はトレーニング性能の向上とPPOの収束速度の向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 2.1025073170341844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, as the demand for cleaning robots has steadily increased, therefore
household electricity consumption is also increasing. To solve this electricity
consumption issue, the problem of efficient path planning for cleaning robot
has become important and many studies have been conducted. However, most of
them are about moving along a simple path segment, not about the whole path to
clean all places. As the emerging deep learning technique, reinforcement
learning (RL) has been adopted for cleaning robot. However, the models for RL
operate only in a specific cleaning environment, not the various cleaning
environment. The problem is that the models have to retrain whenever the
cleaning environment changes. To solve this problem, the proximal policy
optimization (PPO) algorithm is combined with an efficient path planning that
operates in various cleaning environments, using transfer learning (TL),
detection nearest cleaned tile, reward shaping, and making elite set methods.
The proposed method is validated with an ablation study and comparison with
conventional methods such as random and zigzag. The experimental results
demonstrate that the proposed method achieves improved training performance and
increased convergence speed over the original PPO. And it also demonstrates
that this proposed method is better performance than conventional methods
(random, zigzag).
- Abstract(参考訳): 近年、掃除ロボットの需要が着実に増加し、家庭用電力消費も増加している。
この電力消費問題を解決するために,掃除ロボットの効率的な経路計画の課題が重要となり,多くの研究が行われている。
しかし、そのほとんどは、すべての場所をきれいにするための経路全体ではなく、単純な経路セグメントに沿って移動することです。
深層学習技術として,ロボットの清掃に強化学習(RL)を採用している。
しかし、RLのモデルは、様々なクリーニング環境ではなく、特定のクリーニング環境でのみ動作する。
問題は、モデルがクリーニング環境が変わるたびに再トレーニングしなければならないことです。
この問題を解決するために、近位政策最適化(ppo)アルゴリズムは、転送学習(tl)、最寄りのクリーニングタイルの検出、報奨整形、エリートセット法の作成など、様々なクリーニング環境で動作する効率的な経路計画と組み合わせる。
提案法をアブレーション実験で検証し,ランダム法やジグザグ法など従来の方法と比較した。
実験の結果,提案手法はトレーニング性能の向上とPPOの収束速度の向上を実現している。
また,提案手法は従来の手法 (random, zigzag) よりも優れた性能を示す。
関連論文リスト
- SaRA: High-Efficient Diffusion Model Fine-tuning with Progressive Sparse Low-Rank Adaptation [52.6922833948127]
本研究では,事前学習した拡散モデルにおけるパラメータの重要性について検討する。
本稿では,これらの非効率パラメータをフル活用するための新しいモデル微調整法を提案する。
本手法は,下流アプリケーションにおける事前学習モデルの生成能力を向上する。
論文 参考訳(メタデータ) (2024-09-10T16:44:47Z) - Optimizing Diffusion Models for Joint Trajectory Prediction and Controllable Generation [49.49868273653921]
拡散モデルは、自律運転における共同軌道予測と制御可能な生成を約束する。
最適ガウス拡散(OGD)と推定クリーンマニフォールド(ECM)誘導を導入する。
提案手法は生成過程の合理化を図り,計算オーバーヘッドを低減した実用的な応用を実現する。
論文 参考訳(メタデータ) (2024-08-01T17:59:59Z) - Finding Transformer Circuits with Edge Pruning [71.12127707678961]
自動回路発見の効率的かつスケーラブルなソリューションとしてエッジプルーニングを提案する。
本手法は,従来の手法に比べてエッジ数の半分未満のGPT-2の回路を探索する。
その効率のおかげで、Edge PruningをCodeLlama-13Bにスケールしました。
論文 参考訳(メタデータ) (2024-06-24T16:40:54Z) - MWaste: A Deep Learning Approach to Manage Household Waste [0.0]
MWasteはコンピュータビジョンとディープラーニング技術を使って廃棄物をゴミ、プラスチック、紙、金属、ガラス、段ボールに分類するモバイルアプリケーションだ。
その効果は、さまざまなニューラルネットワークアーキテクチャや実世界の画像でテストされ、テストセットの平均精度は92%に達した。
論文 参考訳(メタデータ) (2023-04-02T16:56:49Z) - Simulating Coverage Path Planning with Roomba [0.0]
この問題は、障害のある環境で、すべての未占有状態を訪れることである。
先行研究の調査では、この問題を解決するために学習を適用するためのわずかな努力が明らかにされている。
本研究では、深層強化学習を用いてカバーパス計画問題をモデル化し、Roombaの組込みアルゴリズムの性能と比較する。
論文 参考訳(メタデータ) (2022-10-10T19:50:44Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Few-shot Quality-Diversity Optimization [50.337225556491774]
品質多様性(QD)の最適化は、強化学習における知覚的最小値とスパース報酬を扱う上で効果的なツールであることが示されている。
本稿では,タスク分布の例から,パラメータ空間の最適化によって得られる経路の情報を利用して,未知の環境でQD手法を初期化する場合,数発の適応が可能であることを示す。
ロボット操作とナビゲーションベンチマークを用いて、疎密な報酬設定と密集した報酬設定の両方で実施された実験は、これらの環境でのQD最適化に必要な世代数を著しく削減することを示している。
論文 参考訳(メタデータ) (2021-09-14T17:12:20Z) - Deep Reinforcement Learning using Cyclical Learning Rates [62.19441737665902]
勾配降下(SGD)に基づく最適化手順における最も影響力のあるパラメータの1つは、学習率である。
循環学習について検討し,様々なDRL問題に対する一般循環学習率の定義法を提案する。
本実験により, 循環学習は, 高度に調整された固定学習率よりも, 類似あるいは良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-07-31T10:06:02Z) - New Fusion Algorithm provides an alternative approach to Robotic Path
planning [0.0]
本稿では,カスタム2次元環境における経路計画問題の解法として,新しい,効率的な融合アルゴリズムを提案する。
新しい融合アルゴリズムは、スムーズな性能で実現可能であり、従来の経路計画のA*戦略に代わる、時間効率で安価な代替手段として満足できる。
論文 参考訳(メタデータ) (2020-06-06T17:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。