論文の概要: FlowCorrect: Efficient Interactive Correction of Generative Flow Policies for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2602.22056v1
- Date: Wed, 25 Feb 2026 16:06:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.896342
- Title: FlowCorrect: Efficient Interactive Correction of Generative Flow Policies for Robotic Manipulation
- Title(参考訳): FlowCorrect: ロボットマニピュレーションのための生成フローポリシーの効率的な相互補正
- Authors: Edgar Welte, Yitian Shi, Rosa Wolf, Maximillian Gilles, Rania Rayyes,
- Abstract要約: FlowCorrect(フローコレクト)は、デプロイ時の修正フレームワークである。
実際のロボットを3つのテーブルトップタスク(ピック・アンド・プレイス、注ぐ、カップアップライト)で評価する。
修正予算の削減により、FlowCorrectは、前に解決されたシナリオのパフォーマンスを維持しながら、ハードケースの成功率を85%改善する。
- 参考スコア(独自算出の注目度): 0.7666240799116112
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative manipulation policies can fail catastrophically under deployment-time distribution shift, yet many failures are near-misses: the robot reaches almost-correct poses and would succeed with a small corrective motion. We present FlowCorrect, a deployment-time correction framework that converts near-miss failures into successes using sparse human nudges, without full policy retraining. During execution, a human provides brief corrective pose nudges via a lightweight VR interface. FlowCorrect uses these sparse corrections to locally adapt the policy, improving actions without retraining the backbone while preserving the model performance on previously learned scenarios. We evaluate on a real-world robot across three tabletop tasks: pick-and-place, pouring, and cup uprighting. With a low correction budget, FlowCorrect improves success on hard cases by 85\% while preserving performance on previously solved scenarios. The results demonstrate clearly that FlowCorrect learns only with very few demonstrations and enables fast and sample-efficient incremental, human-in-the-loop corrections of generative visuomotor policies at deployment time in real-world robotics.
- Abstract(参考訳): 生成的操作ポリシーは、展開時分布シフトの下で破滅的に失敗する可能性があるが、多くの失敗は、ほぼ正しいポーズに到達し、小さな修正動作で成功する。
本稿では,フローコレクト(FlowCorrect)について紹介する。フローコレクト(FlowCorrect)は,概略ミスの失敗を,厳密な人手による成功に変換するフレームワークで,完全なポリシの再トレーニングは行わない。
実行中、人間は軽量なVRインターフェースを通じて簡単な修正ポーズを提供する。
FlowCorrectは、これらのスパース修正を使用してポリシーをローカルに適応し、以前に学習したシナリオでモデルパフォーマンスを保持しながら、バックボーンをトレーニングすることなくアクションを改善する。
実際のロボットを3つのテーブルトップタスク(ピック・アンド・プレイス、注ぐ、カップアップライト)で評価する。
修正予算の低さにより、FlowCorrectは、前に解決されたシナリオのパフォーマンスを維持しながら、ハードケースの成功率を85%改善する。
その結果,FlowCorrectは実世界のロボット工学において,ごく少数の実演だけで学習できることが明らかとなった。
関連論文リスト
- VLS: Steering Pretrained Robot Policies via Vision-Language Models [31.189909515514668]
Vision-Language Steering (VLS)は、凍結生成ロボットポリシーの推論時間適応のためのトレーニング不要フレームワークである。
VLSは、適応を推論時間制御問題として扱い、事前訓練された拡散またはフローマッチングポリシーのサンプリングプロセスを操る。
論文 参考訳(メタデータ) (2026-02-03T19:50:16Z) - Flow Policy Gradients for Robot Control [67.61978635211048]
フローマッチングポリシ勾配は、より表現力のあるポリシのトレーニングと微調整に有効である。
我々は、スクラッチからトレーニングを行う際に、フロー表現をどのように活用するかを示し、ベースラインよりもきめ細やかな堅牢性を改善する。
論文 参考訳(メタデータ) (2026-02-02T18:56:49Z) - SeFA-Policy: Fast and Accurate Visuomotor Policy Learning with Selective Flow Alignment [7.446137164545049]
選択フローアライメント(Selective Flow Alignment、SeFA)は、効率的かつ正確なビジュモータポリシー学習フレームワークである。
SeFAはこの課題を選択的フローアライメント戦略によって解決する。
推論遅延を98%以上削減しながら、精度と堅牢性を向上する。
論文 参考訳(メタデータ) (2025-11-11T18:59:39Z) - Failure Prediction at Runtime for Generative Robot Policies [6.375597233389154]
実行中の早期の障害予測は、人間中心で安全クリティカルな環境でロボットをデプロイするために不可欠である。
本稿では,フェールデータを必要としない生成ロボットポリシーの故障予測フレームワークであるFIPERを提案する。
その結果、FIPERは実際の障害と良質なOOD状況とをよく区別し、既存の手法よりも正確に早期に障害を予測できることがわかった。
論文 参考訳(メタデータ) (2025-10-10T15:09:27Z) - Action Flow Matching for Continual Robot Learning [54.10050120844738]
ロボット工学における継続的な学習は、変化する環境やタスクに常に適応できるシステムを求める。
本稿では,オンラインロボット力学モデルアライメントのためのフローマッチングを利用した生成フレームワークを提案する。
ロボットは,不整合モデルで探索するのではなく,行動自体を変換することで,より効率的に情報収集を行う。
論文 参考訳(メタデータ) (2025-04-25T16:26:15Z) - FLaRe: Achieving Masterful and Adaptive Robot Policies with Large-Scale Reinforcement Learning Fine-Tuning [74.25049012472502]
FLaReは、堅牢な事前訓練された表現、大規模なトレーニング、勾配安定化技術を統合する大規模な強化学習フレームワークである。
提案手法は,タスク完了に向けた事前訓練されたポリシーを整列し,これまで実証され,全く新しいタスクや実施状況において,最先端(SoTA)のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-25T03:15:17Z) - Continual Test-Time Domain Adaptation [94.51284735268597]
テスト時ドメイン適応は、ソースデータを使用しずに、ソース事前訓練されたモデルをターゲットドメインに適応することを目的としている。
CoTTAは実装が容易で、市販の事前訓練モデルに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-03-25T11:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。