論文の概要: Zero-Shot MARL Benchmark in the Cyber-Physical Mobility Lab
- arxiv url: http://arxiv.org/abs/2601.16578v1
- Date: Fri, 23 Jan 2026 09:26:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.915626
- Title: Zero-Shot MARL Benchmark in the Cyber-Physical Mobility Lab
- Title(参考訳): サイバー物理移動実験におけるゼロショットMARLベンチマーク
- Authors: Julius Beerwerth, Jianye Xu, Simon Schäfer, Fynn Belderink, Bassam Alrifaee,
- Abstract要約: 本稿では,MARL(Multi-Agent Reinforcement Learning)ポリシーをCAV(Connected and Automated Vehicles)に適用し,実物間移動を評価するためのベンチマークを提案する。
このプラットフォームはシミュレーション、高忠実度デジタルツイン、物理的テストベッドを統合し、MARLモーションプランニングポリシーの構造化ゼロショット評価を可能にする。
- 参考スコア(独自算出の注目度): 0.13398445165628464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a reproducible benchmark for evaluating sim-to-real transfer of Multi-Agent Reinforcement Learning (MARL) policies for Connected and Automated Vehicles (CAVs). The platform, based on the Cyber-Physical Mobility Lab (CPM Lab) [1], integrates simulation, a high-fidelity digital twin, and a physical testbed, enabling structured zero-shot evaluation of MARL motion-planning policies. We demonstrate its use by deploying a SigmaRL-trained policy [2] across all three domains, revealing two complementary sources of performance degradation: architectural differences between simulation and hardware control stacks, and the sim-to-real gap induced by increasing environmental realism. The open-source setup enables systematic analysis of sim-to-real challenges in MARL under realistic, reproducible conditions.
- Abstract(参考訳): 本稿では,CAV(Connected and Automated Vehicles)のためのMARL(Multi-Agent Reinforcement Learning)ポリシーのシミュレート可能な評価ベンチマークを提案する。
このプラットフォームは、Cyber-Physical Mobility Lab (CPM Lab) [1]に基づいて、シミュレーション、高忠実度デジタルツイン、物理的テストベッドを統合し、MARLモーションプランニングポリシーの構造化ゼロショット評価を可能にする。
本稿では,SigmaRLをトレーニングしたポリシ[2]を3つの領域に展開することにより,シミュレーションとハードウェア制御スタックのアーキテクチャ的差異と,環境リアリズムの増大によって引き起こされるsim-to-realギャップの2つの相補的な性能劣化の原因を明らかにする。
オープンソースのセットアップは、現実的で再現可能な条件下で、MARLにおけるsim-to-realの課題を体系的に解析することを可能にする。
関連論文リスト
- PolaRiS: Scalable Real-to-Sim Evaluations for Generalist Robot Policies [88.78188489161028]
シミュレーションにおける政策評価と環境復元(PolaRiS)の導入
PolaRiSは、高忠実度シミュレーションロボット評価のためのスケーラブルなリアルタイム・シミュレート・フレームワークである。
PolaRiSの評価は,既存のシミュレーションベンチマークよりも,現実のジェネラリストのポリシー性能に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2025-12-18T18:49:41Z) - Simulating Environments with Reasoning Models for Agent Training [55.98861707136674]
トレーニング用の起動環境の構築は重く、脆く、進捗を制限します。
我々はSimia-SFTとSimia-RLの2つのフレームワークを提案する。
Simia-SFTとSimia-RLは、環境工学を使わずにスケーラブルなエージェントトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-11-03T18:29:57Z) - An Real-Sim-Real (RSR) Loop Framework for Generalizable Robotic Policy Transfer with Differentiable Simulation [13.15220962477623]
本稿では,シミュレーションと実環境のギャップを解消する新しいリアルタイムループフレームワークを提案する。
我々の研究の重要な貢献は、多様で代表的な実世界のデータの収集を促進する情報的コスト関数の設計である。
我々のアプローチは多機能なMJXプラットフォーム上で実装されており、我々のフレームワークは幅広いロボットシステムと互換性がある。
論文 参考訳(メタデータ) (2025-03-13T07:27:05Z) - GausSim: Foreseeing Reality by Gaussian Simulator for Elastic Objects [55.02281855589641]
GausSimは、ガウスカーネルを通して表現される現実の弾性物体の動的挙動をキャプチャするために設計された、ニューラルネットワークベースの新しいシミュレータである。
我々は連続体力学を活用し、各カーネルを連続体を表すCenter of Mass System (CMS)として扱う。
さらに、ガウスシムは質量や運動量保存のような明示的な物理制約を取り入れ、解釈可能な結果と堅牢で物理的に妥当なシミュレーションを確実にする。
論文 参考訳(メタデータ) (2024-12-23T18:58:17Z) - Evaluating Real-World Robot Manipulation Policies in Simulation [91.55267186958892]
実環境と模擬環境の制御と視覚的格差は、信頼性のある模擬評価の鍵となる課題である。
実環境に完全忠実なデジタル双生児を作らなくても、これらのギャップを軽減できる手法を提案する。
シミュレーション環境の集合体であるSIMPLERを作成した。
論文 参考訳(メタデータ) (2024-05-09T17:30:16Z) - Mixed-Reality Digital Twins: Leveraging the Physical and Virtual Worlds for Hybrid Sim2Real Transition of Multi-Agent Reinforcement Learning Policies [0.0]
本研究は、並列化シミュレーションワークロードをオンデマンドで選択的にスケーリングすることで、トレーニング速度を向上できる混合現実(MR)デジタルツイン(DT)フレームワークを提案する。
i) エージェントと環境並列化が訓練時間に及ぼす影響, (ii) ドメインランダム化がゼロショットsim2real転送に与える影響について検討した。
その結果、提案した並列化スキームとsim2realのギャップを2.9%に抑えることで、最大76.3%のトレーニング時間を短縮できることがわかった。
論文 参考訳(メタデータ) (2024-03-16T18:47:04Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。