論文の概要: QuadKAN: KAN-Enhanced Quadruped Motion Control via End-to-End Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2508.19153v2
- Date: Sun, 07 Sep 2025 01:11:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.317776
- Title: QuadKAN: KAN-Enhanced Quadruped Motion Control via End-to-End Reinforcement Learning
- Title(参考訳): QuadKAN: エンドツーエンド強化学習によるKA強化四足歩行制御
- Authors: Yinuo Wang, Gavin Tao,
- Abstract要約: 我々は、強化学習(RL)による視覚誘導四足歩行制御に対処する。
Kolmogorov-Arnold Networks (KAN) でインスタンス化されたクロスモーダルポリシーである QuadKAN を提案する。
以上の結果から,QuadKANは最新技術(SOTA)ベースラインよりも一貫して高いリターン,より大きな距離,衝突の少ないことが分かる。
- 参考スコア(独自算出の注目度): 2.26464274357758
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We address vision-guided quadruped motion control with reinforcement learning (RL) and highlight the necessity of combining proprioception with vision for robust control. We propose QuadKAN, a spline-parameterized cross-modal policy instantiated with Kolmogorov-Arnold Networks (KANs). The framework incorporates a spline encoder for proprioception and a spline fusion head for proprioception-vision inputs. This structured function class aligns the state-to-action mapping with the piecewise-smooth nature of gait, improving sample efficiency, reducing action jitter and energy consumption, and providing interpretable posture-action sensitivities. We adopt Multi-Modal Delay Randomization (MMDR) and perform end-to-end training with Proximal Policy Optimization (PPO). Evaluations across diverse terrains, including both even and uneven surfaces and scenarios with static or dynamic obstacles, demonstrate that QuadKAN achieves consistently higher returns, greater distances, and fewer collisions than state-of-the-art (SOTA) baselines. These results show that spline-parameterized policies offer a simple, effective, and interpretable alternative for robust vision-guided locomotion. A repository will be made available upon acceptance.
- Abstract(参考訳): 我々は、強化学習(RL)による視覚誘導四足歩行制御に対処し、視覚とプロプレセプションを組み合わせることの必要性を強調した。
提案するQuadKANは,KAN(Kolmogorov-Arnold Networks)をインスタンス化した,スプラインパラメータによるクロスモーダルポリシである。
本フレームワークは、プロピオセプション用スプラインエンコーダとプロピオセプションビジョン入力用スプライン融合ヘッドとを備えている。
この構造された関数クラスは、歩行の平滑な性質と状態間マッピングを整合させ、サンプル効率を改善し、作用ジッタとエネルギー消費を低減し、解釈可能な姿勢感受性を提供する。
我々は、MMDR(Multi-Modal Delay Randomization)を採用し、PPO(Proximal Policy Optimization)を用いたエンドツーエンドのトレーニングを行う。
均等および不均一な表面と静的または動的障害物を伴うシナリオを含む様々な地形における評価は、QuadKANが最新技術(SOTA)ベースラインよりも一貫して高いリターン、より大きな距離、衝突の少ないことを証明している。
これらの結果から,スプラインパラメータ化ポリシは,ロバストな視覚誘導移動に対して,シンプルで効果的かつ解釈可能な代替手段であることが示された。
リポジトリは受理時に利用可能になる。
関連論文リスト
- Equivariant Goal Conditioned Contrastive Reinforcement Learning [5.019456977535218]
Contrastive Reinforcement Learning (CRL)は、ラベルのない相互作用から有用な構造化表現を抽出するための有望なフレームワークを提供する。
等変制約を用いた潜在空間をさらに構造化する等変CRLを提案する。
我々のアプローチは、状態ベースと画像ベースの両方の設定において、さまざまなシミュレーションタスクにおいて、強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-07-22T01:13:45Z) - SCING:Towards More Efficient and Robust Person Re-Identification through Selective Cross-modal Prompt Tuning [17.104905795008555]
Selective Cross-modal Prompt Tuning (SCING) というフレームワークを提案する。
我々のフレームワークは、効率的な推論を維持しながら重いアダプタを排除し、性能と計算オーバーヘッドの最適なトレードオフを実現する。
論文 参考訳(メタデータ) (2025-07-01T07:21:31Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - ReAgent-V: A Reward-Driven Multi-Agent Framework for Video Understanding [71.654781631463]
ReAgent-Vは、新しいエージェントビデオ理解フレームワークである。
推論中に効率の良いフレーム選択とリアルタイムの報酬生成を統合する。
12のデータセットに対する大規模な実験は、一般化と推論において大きな成果を上げている。
論文 参考訳(メタデータ) (2025-06-02T04:23:21Z) - MULE: Multi-terrain and Unknown Load Adaptation for Effective Quadrupedal Locomotion [1.479858319622657]
四足歩行ロボットは、様々な地形にまたがる荷積み作業にますます利用されている。
本研究では,四足歩行ロボットが様々なペイロードと多様な地形に適応できる適応強化学習フレームワークを提案する。
提案手法はIsaac Gymの大規模シミュレーション実験と,Unitree Go1の4倍体上での実際のハードウェア展開により検証する。
論文 参考訳(メタデータ) (2025-05-01T12:41:35Z) - ReCoM: Realistic Co-Speech Motion Generation with Recurrent Embedded Transformer [58.49950218437718]
音声に同期した高忠実で一般化可能な人体動作を生成するための効率的なフレームワークであるReCoMを提案する。
Recurrent Embedded Transformer (RET)は、動的埋め込み正規化(DER)をViT(Vit)コアアーキテクチャに統合する。
モデルロバスト性を高めるため,ノイズ抵抗とクロスドメイン一般化の二重性を持つモデルに,提案したDER戦略を取り入れた。
論文 参考訳(メタデータ) (2025-03-27T16:39:40Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - ContrastMotion: Self-supervised Scene Motion Learning for Large-Scale
LiDAR Point Clouds [21.6511040107249]
BEV表現を用いたLiDARに基づく自律走行のための新しい自律走行推定器を提案する。
連続するフレームにおける柱間の特徴レベルの整合性によるシーンの動きを予測し,ダイナミックなシーンにおけるノイズポイントや視点変化点雲の影響を解消する。
論文 参考訳(メタデータ) (2023-04-25T05:46:24Z) - RLOC: Terrain-Aware Legged Locomotion using Reinforcement Learning and
Optimal Control [6.669503016190925]
四元計画と制御のためのモデルベースとデータ駆動の統一的アプローチを提案する。
センサ情報と所望のベース速度コマンドを、強化学習ポリシーを用いて足踏み計画にマッピングする。
我々は、複雑な四足歩行システムであるANYmal Bの枠組みを訓練し、再訓練を必要とせず、より大きく重いロボットであるANYmal Cへの移動性を示す。
論文 参考訳(メタデータ) (2020-12-05T18:30:23Z) - First Steps: Latent-Space Control with Semantic Constraints for
Quadruped Locomotion [73.37945453998134]
従来の四重化制御のアプローチでは、単純化された手作りのモデルが採用されている。
これにより、有効な運動範囲が縮小されているため、ロボットの能力が大幅に低下する。
この研究において、これらの課題は、構造化潜在空間における最適化として四重化制御をフレーミングすることによって解決される。
深い生成モデルは、実現可能な関節構成の統計的表現を捉え、一方、複雑な動的および終端的制約は高レベルな意味的指標によって表現される。
実世界とシミュレーションの両方で最適化された移動軌跡の実現可能性を検証する。
論文 参考訳(メタデータ) (2020-07-03T07:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。