論文の概要: Latent Space Reinforcement Learning for Multi-Robot Exploration
- arxiv url: http://arxiv.org/abs/2601.01139v1
- Date: Sat, 03 Jan 2026 10:06:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.613785
- Title: Latent Space Reinforcement Learning for Multi-Robot Exploration
- Title(参考訳): マルチロボット探索のための潜時空間強化学習
- Authors: Sriram Rajasekar, Ashwini Ratnoo,
- Abstract要約: 未知環境の自動マッピングシステムを開発した。
必須空間情報を保存しつつ,高忠実度占有率マップを潜在状態ベクトルに圧縮する。
共有データへの依存を変調する重み付きコンセンサス機構を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous mapping of unknown environments is a critical challenge, particularly in scenarios where time is limited. Multi-agent systems can enhance efficiency through collaboration, but the scalability of motion-planning algorithms remains a key limitation. Reinforcement learning has been explored as a solution, but existing approaches are constrained by the limited input size required for effective learning, restricting their applicability to discrete environments. This work addresses that limitation by leveraging autoencoders to perform dimensionality reduction, compressing high-fidelity occupancy maps into latent state vectors while preserving essential spatial information. Additionally, we introduce a novel procedural generation algorithm based on Perlin noise, designed to generate topologically complex training environments that simulate asteroid fields, caves and forests. These environments are used for training the autoencoder and the navigation algorithm using a hierarchical deep reinforcement learning framework for decentralized coordination. We introduce a weighted consensus mechanism that modulates reliance on shared data via a tuneable trust parameter, ensuring robustness to accumulation of errors. Experimental results demonstrate that the proposed system scales effectively with number of agents and generalizes well to unfamiliar, structurally distinct environments and is resilient in communication-constrained settings.
- Abstract(参考訳): 未知環境の自律的なマッピングは、特に時間制限のあるシナリオにおいて、重要な課題である。
マルチエージェントシステムは協調によって効率を向上させることができるが、運動計画アルゴリズムのスケーラビリティは依然として重要な限界である。
強化学習はソリューションとして検討されてきたが、既存のアプローチは効果的な学習に必要な入力サイズに制限され、個々の環境に適用性に制限されている。
本研究は, 自己エンコーダを利用して次元削減を行い, 高忠実度占有率マップを潜在状態ベクトルに圧縮し, 必須空間情報を保存し, その制限に対処する。
さらに, 小惑星場, 洞窟, 森林を模擬するトポロジカルに複雑な訓練環境を生成するために, パーリンノイズに基づく新しい手続き生成アルゴリズムを導入する。
これらの環境は、分散協調のための階層的な深層強化学習フレームワークを用いて、オートエンコーダとナビゲーションアルゴリズムのトレーニングに使用される。
本稿では,信頼パラメータを調整して共有データの信頼性を調整し,エラーの蓄積に対する堅牢性を確保するための重み付きコンセンサス機構を提案する。
実験結果から,提案システムはエージェント数で効果的にスケールし,不慣れな,構造的に異なる環境に適応し,通信制約のある環境では回復可能であることが示された。
関連論文リスト
- IMAGINE: Intelligent Multi-Agent Godot-based Indoor Networked Exploration [0.0]
本稿では,2次元屋内環境における課題に対処するために,MARL(Multi-Agent Reinforcement Learning)を実装した。
政策訓練は、不確実性の下で創発的な協調行動と意思決定を達成することを目的としている。
論文 参考訳(メタデータ) (2026-02-02T22:08:41Z) - Self-Supervised Path Planning in Unstructured Environments via Global-Guided Differentiable Hard Constraint Projection [5.665217514922631]
本研究では,非構造化環境における自律ナビゲーションのためのディープラーニングエージェントをデプロイするための自己教師型フレームワークを提案する。
データ不足を軽減するため,手動ラベリングを使わずに高密度の監視信号を提供するG-APF(Global-Guided Artificial Potential Field)を構築した。
20,000のシナリオからなるテストセットのベンチマークでは、88.75%の成功率を示し、強化された運用安全性を実証している。
論文 参考訳(メタデータ) (2026-01-27T08:37:21Z) - MMP-A*: Multimodal Perception Enhanced Incremental Heuristic Search on Path Planning [8.522882937983972]
MMP-A* は、視覚言語モデルの空間的接地機能と、新しい適応的減衰機構を統合するマルチモーダルフレームワークである。
MMP-A* は操作コストを大幅に削減し, ほぼ最適軌道を達成できることを示す。
論文 参考訳(メタデータ) (2026-01-05T08:55:27Z) - A Pseudo Global Fusion Paradigm-Based Cross-View Network for LiDAR-Based Place Recognition [12.93382945887946]
LiDARベースのPlace Recognition(LPR)は、Embodied Artificial Intelligence(AI)とAutonomous Drivingにおいて重要なタスクである。
既存のアプローチは、ユークリッド距離に基づく距離学習タスクへの位置認識を減らし、特徴空間の固有の構造やクラス内分散を無視している。
本稿では,これらの課題に対処する革新的な融合パラダイムに基づく,新しいクロスビューネットワークを提案する。
論文 参考訳(メタデータ) (2025-08-12T13:12:48Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Integrating DeepRL with Robust Low-Level Control in Robotic Manipulators for Non-Repetitive Reaching Tasks [0.24578723416255746]
ロボット工学では、現代の戦略は学習に基づくもので、複雑なブラックボックスの性質と解釈可能性の欠如が特徴である。
本稿では, 深部強化学習(DRL)に基づく衝突のない軌道プランナと, 自動調整型低レベル制御戦略を統合することを提案する。
論文 参考訳(メタデータ) (2024-02-04T15:54:03Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - Learning Robust Policy against Disturbance in Transition Dynamics via
State-Conservative Policy Optimization [63.75188254377202]
深層強化学習アルゴリズムは、ソースとターゲット環境の相違により、現実世界のタスクでは不十分な処理を行うことができる。
本研究では,前もって乱れをモデル化せずにロバストなポリシーを学習するための,モデルフリーなアクター批判アルゴリズムを提案する。
いくつかのロボット制御タスクの実験では、SCPOは遷移力学の乱れに対する堅牢なポリシーを学習している。
論文 参考訳(メタデータ) (2021-12-20T13:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。