論文の概要: REAL: Robust Extreme Agility via Spatio-Temporal Policy Learning and Physics-Guided Filtering
- arxiv url: http://arxiv.org/abs/2603.17653v1
- Date: Wed, 18 Mar 2026 12:18:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.948767
- Title: REAL: Robust Extreme Agility via Spatio-Temporal Policy Learning and Physics-Guided Filtering
- Title(参考訳): REAL: 時空間政策学習と物理誘導フィルタリングによるロバスト・エクストリーム・アジリティ
- Authors: Jialong Liu, Dehan Shen, Yanbo Wen, Zeyu Jiang, Changhao Chen,
- Abstract要約: 急激な地形評価と、非常にダイナミックな条件下での正確な足の配置が要求される。
本稿では,感覚的汚職下でのパーキングのエンドツーエンドフレームワークであるRobust Extreme Agility Learning (REAL)を提案する。
本研究では,FiLM変調マンバのバックボーンを装着した配置可能な学生にクロスモーダルな教師ポリシーを注入し,視覚ノイズを積極的にフィルタし,短期的な地形記憶を積極的に構築する。
- 参考スコア(独自算出の注目度): 8.317059632344812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Extreme legged parkour demands rapid terrain assessment and precise foot placement under highly dynamic conditions. While recent learning-based systems achieve impressive agility, they remain fundamentally fragile to perceptual degradation, where even brief visual noise or latency can cause catastrophic failure. To overcome this, we propose Robust Extreme Agility Learning (REAL), an end-to-end framework for reliable parkour under sensory corruption. Instead of relying on perfectly clean perception, REAL tightly couples vision, proprioceptive history, and temporal memory. We distill a cross-modal teacher policy into a deployable student equipped with a FiLM-modulated Mamba backbone to actively filter visual noise and build short-term terrain memory actively. Furthermore, a physics-guided Bayesian state estimator enforces rigid-body consistency during high-impact maneuvers. Validated on a Unitree Go2 quadruped, REAL successfully traverses extreme obstacles even with a 1-meter visual blind zone, while strictly satisfying real-time control constraints with a bounded 13.1 ms inference time.
- Abstract(参考訳): 急激な地形評価と、非常にダイナミックな条件下での正確な足の配置が要求される。
最近の学習ベースのシステムは、目覚しい俊敏性を達成する一方で、視覚的なノイズやレイテンシさえも破滅的な失敗を引き起こすような知覚的劣化に対して、基本的に脆弱なままである。
これを解決するために,官能的汚職下でのパーキングのエンドツーエンドフレームワークであるRobust Extreme Agility Learning (REAL)を提案する。
完全にクリーンな知覚に頼る代わりに、REALは視覚、固有受容履歴、時間記憶を密に結合する。
本研究では,FiLM変調マンバのバックボーンを装着した配置可能な学生にクロスモーダルな教師ポリシーを注入し,視覚ノイズを積極的にフィルタし,短期的な地形記憶を積極的に構築する。
さらに、物理誘導型ベイズ状態推定器は、高インパクト操作中に剛体整合を強制する。
ユニツリーのGo2で検証されたREALは、1メートルの視覚ブラインドゾーンでも極端な障害物を横切ることに成功したが、13.1msの推論時間でリアルタイム制御の制約を厳密に満たした。
関連論文リスト
- Robust Dynamic Object Detection in Cluttered Indoor Scenes via Learned Spatiotemporal Cues [15.517814236046055]
鳥眼視(BEV)により時間的占有感に基づく運動分節を融合させるLiDARのみのフレームワークを提案する。
モーションキャプチャー地上真実を用いた実験により,本手法は28.67%のリコール率,18.50%のF1スコアを達成した。
論文 参考訳(メタデータ) (2026-03-16T18:59:51Z) - Phys-3D: Physics-Constrained Real-Time Crowd Tracking and Counting on Railway Platforms [10.07807123516397]
我々は、到着時にプラットフォームをスキャンしながら、列車に搭載された1台のカメラを使用することを提案する。
既存の追跡検出アプローチの多くは、静的カメラを前提とするか、モーションモデリングにおける物理的な一貫性を無視している。
本研究では,実時間パイプラインにおける検出,外観,3次元動作推論を統一する物理制約付きトラッキングフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-26T16:38:44Z) - TTT-Parkour: Rapid Test-Time Training for Perceptive Robot Parkour [29.110035197783162]
本稿では,ヒューマノイド・ロボット・パーキングのためのリアル・ツー・シミュレート・トゥ・リアル・フレームワークを提案する。
政策は、まず手続き的に生成された地形で事前訓練され、続いて現実世界の捕獲から再構築された高忠実度メッシュの素早い微調整が行われる。
TTT-Parkourは、くさび、ステック、ボックス、トラップエイド、狭いビームなど、複雑な障害物をマスターするために、ヒューマノイドロボットを活用できることを実証する。
論文 参考訳(メタデータ) (2026-02-02T16:55:10Z) - CoG: Controllable Graph Reasoning via Relational Blueprints and Failure-Aware Refinement over Knowledge Graphs [53.199517625701475]
CoGはDual-Process Theoryにインスパイアされたトレーニング不要のフレームワークで、直観と熟考の相互作用を模倣している。
CoGは精度と効率の両方において最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2026-01-16T07:27:40Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - BeamDojo: Learning Agile Humanoid Locomotion on Sparse Footholds [35.62230804783507]
既存の学習ベースのアプローチは、足場不足や非効率な学習プロセスのために、複雑な地形で苦労することが多い。
BeamDojoはアジャイルなヒューマノイドの移動を可能にするための強化学習フレームワークです。
BeamDojoはシミュレーションで効率的な学習を実現し、現実世界の狭い足場に正確な足場を配置してアジャイルの移動を可能にする。
論文 参考訳(メタデータ) (2025-02-14T18:42:42Z) - HazyDet: Open-Source Benchmark for Drone-View Object Detection with Depth-Cues in Hazy Scenes [54.24350833692194]
HazyDetは、ヘイジーな環境でドローンビューオブジェクトを検出するために特別に設計された、最初の大規模ベンチマークである。
本稿では,迷路による視覚劣化に対処するため,Depth-Conditioned Detector (DeCoDet)を提案する。
HazyDetは、検出アルゴリズムを前進させるための挑戦的で現実的なテストベッドを提供する。
論文 参考訳(メタデータ) (2024-09-30T00:11:40Z) - Physics-Informed Learning of Characteristic Trajectories for Smoke Reconstruction [17.634226193457277]
既存の物理インフォームドニューラルネットワークは、短期的な物理の制約を強調しており、長期保存の適切な保存は調査を控えている。
ラグランジアン流体軌道を暗黙的にモデル化するためにユーレリアニューラル場を利用した新しい表現であるニューラル特性軌道場を導入する。
この表現に基づいて物理インフォームド・トラジェクトリ・ラーニングとNeRFに基づくシーン再構成への統合を提案する。
論文 参考訳(メタデータ) (2024-07-12T20:19:41Z) - Game-Theoretic Robust Reinforcement Learning Handles Temporally-Coupled Perturbations [98.5802673062712]
我々は時間的に結合した摂動を導入し、既存の頑健な強化学習手法に挑戦する。
本稿では、時間的に結合したロバストなRL問題を部分的に観測可能な2プレイヤーゼロサムゲームとして扱う新しいゲーム理論であるGRADを提案する。
論文 参考訳(メタデータ) (2023-07-22T12:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。