論文の概要: KAN We Flow? Advancing Robotic Manipulation with 3D Flow Matching via KAN & RWKV
- arxiv url: http://arxiv.org/abs/2602.01115v1
- Date: Sun, 01 Feb 2026 09:27:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.60067
- Title: KAN We Flow? Advancing Robotic Manipulation with 3D Flow Matching via KAN & RWKV
- Title(参考訳): Kan We Flow? Kan & RWKVによる3次元フローマッチングによるロボットマニピュレーションの向上
- Authors: Zhihao Chen, Yiyuan Ge, Ziyang Wang,
- Abstract要約: Kan-We-Flowは3D操作のための軽量なバックボーンを構築するフローマッチングポリシーである。
我々の設計では、パラメータを86.8%削減し、高速ランタイムを維持し、Adroit、Meta-World、DexArtベンチマークで最先端の成功率を達成する。
- 参考スコア(独自算出の注目度): 15.840121055564405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based visuomotor policies excel at modeling action distributions but are inference-inefficient, since recursively denoising from noise to policy requires many steps and heavy UNet backbones, which hinders deployment on resource-constrained robots. Flow matching alleviates the sampling burden by learning a one-step vector field, yet prior implementations still inherit large UNet-style architectures. In this work, we present KAN-We-Flow, a flow-matching policy that draws on recent advances in Receptance Weighted Key Value (RWKV) and Kolmogorov-Arnold Networks (KAN) from vision to build a lightweight and highly expressive backbone for 3D manipulation. Concretely, we introduce an RWKV-KAN block: an RWKV first performs efficient time/channel mixing to propagate task context, and a subsequent GroupKAN layer applies learnable spline-based, groupwise functional mappings to perform feature-wise nonlinear calibration of the action mapping on RWKV outputs. Moreover, we introduce an Action Consistency Regularization (ACR), a lightweight auxiliary loss that enforces alignment between predicted action trajectories and expert demonstrations via Euler extrapolation, providing additional supervision to stabilize training and improve policy precision. Without resorting to large UNets, our design reduces parameters by 86.8\%, maintains fast runtime, and achieves state-of-the-art success rates on Adroit, Meta-World, and DexArt benchmarks. Our project page can be viewed in \href{https://zhihaochen-2003.github.io/KAN-We-Flow.github.io/}{\textcolor{red}{link}}
- Abstract(参考訳): 拡散に基づくビジュモータポリシーは、行動分布のモデル化に優れるが、ノイズからポリシーへの再帰的なデノベーションには多くのステップと重いUNetバックボーンが必要であるため、推論非効率である。
フローマッチングは1ステップのベクトル場を学ぶことでサンプリングの負担を軽減するが、以前の実装では大きなUNetスタイルのアーキテクチャを継承している。
本稿では,Receptance Weighted Key Value (RWKV) とKolmogorov-Arnold Networks (KAN) の3D操作のための軽量で高表現力のバックボーンを構築するためのフローマッチングポリシであるKan-We-Flowを提案する。
具体的には、RWKV-KANブロックを導入し、まずRWKVがタスクコンテキストを伝達するために効率的な時間/チャネル混合を行い、その後、GroupKANレイヤが学習可能なスプラインベースのグループワイド関数マッピングを適用し、RWKV出力上のアクションマッピングの特徴的に非線形なキャリブレーションを行う。
さらに,ACR(Action Consistency Regularization)を導入し,予測された行動軌跡とEuler外挿による専門家のデモンストレーションとの整合を強制し,トレーニングの安定化と政策精度の向上を図る。
大規模なUNetsに頼らずに、パラメータを86.8\%削減し、高速なランタイムを維持し、Adroit、Meta-World、DexArtベンチマークで最先端の成功率を達成する。
我々のプロジェクトページは \href{https://zhihaochen-2003.github.io/KAN-We-Flow.github.io/}{\textcolor{red}{link}} で見ることができる。
関連論文リスト
- Steering Vision-Language-Action Models as Anti-Exploration: A Test-Time Scaling Approach [78.4812458793128]
動作チャンクの高忠実度検証に軽量な擬数推定器を適用したテスト時間スケーリングフレームワークである textbfTACO を提案する。
我々の手法は、オフライン強化学習(RL)における古典的な反探索原理に似ており、勾配のないため、計算上の大きな恩恵をもたらす。
論文 参考訳(メタデータ) (2025-12-02T14:42:54Z) - Iterative Refinement of Flow Policies in Probability Space for Online Reinforcement Learning [56.47948583452555]
固定ステップのEulerスキームによるフローマッチング推論プロセスの離散化は,最適輸送から変化するJordan-Kinderlehrer-Otto原理と整合する,というキーインサイトに基づいて,SWFP(Stepwise Flow Policy)フレームワークを紹介した。
SWFPは、大域的な流れを、プロキシメート分布間の小さな漸進的な変換の列に分解する。
この分解は、小さな流れブロックのカスケードを介して事前訓練された流れを微調整する効率的なアルゴリズムを導き、大きな利点をもたらす。
論文 参考訳(メタデータ) (2025-10-17T07:43:51Z) - SAC Flow: Sample-Efficient Reinforcement Learning of Flow-Based Policies via Velocity-Reparameterized Sequential Modeling [9.936731043466699]
多段階アクションサンプリングプロセスの勾配が原因で,非政治強化学習による表現型フローベース政策の訓練が不安定であることが知られている。
フローロールアウトはリカレント計算に代数的に等価であり、RNNと同様の消滅や爆発的な勾配に影響を受けやすい。
我々は,これらのポリシーのエンドツーエンドのトレーニングを容易にする,ノイズ強化ロールアウトによって実現された実用的なSACベースのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-09-30T04:21:20Z) - ReinFlow: Fine-tuning Flow Matching Policy with Online Reinforcement Learning [7.452631636467998]
ReinFlowは、継続的ロボット制御のためのオンライン強化学習フレームワークである。
学習可能なノイズをフローポリシーの決定論的パスに注入し、フローを離散時間マルコフプロセスに変換する。
代表的な移動と操作タスクでReinFlowをベンチマークします。
論文 参考訳(メタデータ) (2025-05-28T08:17:16Z) - Flow-GRPO: Training Flow Matching Models via Online RL [80.62659379624867]
本稿では,オンライン政策強化学習をフローマッチングモデルに統合する最初の方法であるFlow-GRPOを提案する。
提案手法では,(1)決定論的正規微分方程式を同値な微分方程式に変換するODE-to-SDE変換と,(2)推論ステップの数を維持しながらトレーニングの段階を短縮するDenoising Reduction戦略の2つの主要な戦略を用いる。
論文 参考訳(メタデータ) (2025-05-08T17:58:45Z) - ALOcc: Adaptive Lifting-Based 3D Semantic Occupancy and Cost Volume-Based Flow Predictions [91.55655961014027]
シーン理解には3次元セマンティック占有とフロー予測が不可欠である。
本稿では,3つの改善点を目標とした視覚ベースのフレームワークを提案する。
我々の純粋な畳み込みアーキテクチャは、セマンティック占有率とジョイントセマンティックフロー予測の両方のために、複数のベンチマーク上で新しいSOTA性能を確立する。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - PointRWKV: Efficient RWKV-Like Model for Hierarchical Point Cloud Learning [56.14518823931901]
NLP分野におけるRWKVモデルから導かれる線形複雑性のモデルであるPointRWKVを提案する。
まず,改良型マルチヘッド行列値状態を用いて,PointRWKVブロック内のグローバル処理機能について検討する。
局所的な幾何学的特徴を同時に抽出するために,グラフ安定化器を用いた固定半径近傍グラフにおいて,点雲を効率的に符号化する並列分岐を設計する。
論文 参考訳(メタデータ) (2024-05-24T05:02:51Z) - Reachable Polyhedral Marching (RPM): An Exact Analysis Tool for Deep-Learned Control Systems [11.93664682521114]
我々は、rerectified Unit (ReLU) アクティベーションを備えたフィードフォワードニューラルネットワークに注目した。
本稿では,アフィン領域の増分および連結を利用したROA計算アルゴリズムを提案する。
最後に,航空機の滑走路制御問題に対する画像ベース制御器によって安定化された状態の集合を見つけるために,本手法を適用した。
論文 参考訳(メタデータ) (2022-10-15T17:15:53Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。