論文の概要: ConditionNET: Learning Preconditions and Effects for Execution Monitoring
- arxiv url: http://arxiv.org/abs/2502.01167v1
- Date: Mon, 03 Feb 2025 09:00:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:53:32.119177
- Title: ConditionNET: Learning Preconditions and Effects for Execution Monitoring
- Title(参考訳): ConditionNET: プレ条件の学習と実行監視の効果
- Authors: Daniel Sliwowski, Dongheui Lee,
- Abstract要約: ConditionNETは、完全にデータ駆動の方法でアクションの前提条件と効果を学ぶためのアプローチである。
実験では, 異常検出と位相予測の両方において, ConditionNET がすべてのベースラインを上回り, 性能が向上することを示した。
本研究では,実環境におけるロボットの信頼性と適応性を高めるための ConditionNET の可能性を強調した。
- 参考スコア(独自算出の注目度): 9.64001633229156
- License:
- Abstract: The introduction of robots into everyday scenarios necessitates algorithms capable of monitoring the execution of tasks. In this paper, we propose ConditionNET, an approach for learning the preconditions and effects of actions in a fully data-driven manner. We develop an efficient vision-language model and introduce additional optimization objectives during training to optimize for consistent feature representations. ConditionNET explicitly models the dependencies between actions, preconditions, and effects, leading to improved performance. We evaluate our model on two robotic datasets, one of which we collected for this paper, containing 406 successful and 138 failed teleoperated demonstrations of a Franka Emika Panda robot performing tasks like pouring and cleaning the counter. We show in our experiments that ConditionNET outperforms all baselines on both anomaly detection and phase prediction tasks. Furthermore, we implement an action monitoring system on a real robot to demonstrate the practical applicability of the learned preconditions and effects. Our results highlight the potential of ConditionNET for enhancing the reliability and adaptability of robots in real-world environments. The data is available on the project website: https://dsliwowski1.github.io/ConditionNET_page.
- Abstract(参考訳): 日常シナリオへのロボットの導入は、タスクの実行を監視するアルゴリズムを必要とする。
本稿では,フルデータ駆動方式で行動の前提条件と効果を学習する手法である ConditionNET を提案する。
我々は,効率的な視覚言語モデルを開発し,一貫した特徴表現を最適化するために,訓練中に新たな最適化目標を導入する。
ConditionNETは、アクション、プレ条件、エフェクト間の依存関係を明示的にモデル化し、パフォーマンスを向上する。
本論文では,Franka Emika Pandaロボットの遠隔操作デモを406件,失敗138件を含む2つのロボットデータセットを用いて評価した。
実験の結果、ConditionNETは異常検出と位相予測の両方のタスクにおいて、すべてのベースラインを上回ります。
さらに,実ロボット上での行動監視システムを実装し,学習した前提条件と効果の実践的適用性を実証する。
本研究では,実環境におけるロボットの信頼性と適応性を高めるための ConditionNET の可能性を強調した。
データはプロジェクトのWebサイト(https://dsliwowski1.github.io/ConditionNET_page)で公開されている。
関連論文リスト
- Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
私たちは世界モデルを学ぶための新しいフレームワークを紹介します。
スケーラブルで堅牢なフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Sample Efficient Robot Learning in Supervised Effect Prediction Tasks [0.0]
本研究では,アクション・エフェクトの予測や,より一般的にはMUSELと呼ばれる世界モデル学習のためのロボットレグレッションタスクを目的とした新しいALフレームワークを開発する。
MUSELは、学習エンジンが与える総不確実性推定から、進捗と入力の多様性を利用してモデル不確かさを抽出し、それを用いて、最先端のアクション・エフェクト予測法を超えてサンプル効率を向上させることを目的としている。
MUSELの有効性は、ロボットのアクション・エフェクト・ラーニングで使用される標準的な方法と比較することによって実証される。
論文 参考訳(メタデータ) (2024-12-03T09:48:28Z) - CogACT: A Foundational Vision-Language-Action Model for Synergizing Cognition and Action in Robotic Manipulation [100.25567121604382]
VLA(Vision-Language-Action)モデルは、言語誘導されたタスクの実行と、目に見えないシナリオへの一般化の観点から、ロボット操作を改善した。
VLM(Vision-Language-Models)に基づく新しい高度なVLAアーキテクチャを提案する。
我々のモデルはタスクパフォーマンスにおいて既存のVLAをはるかに上回るだけでなく、新しいロボットへの顕著な適応と、見えないオブジェクトや背景への一般化も示している。
論文 参考訳(メタデータ) (2024-11-29T12:06:03Z) - Active Exploration in Bayesian Model-based Reinforcement Learning for Robot Manipulation [8.940998315746684]
ロボットアームのエンドタスクに対するモデルベース強化学習(RL)アプローチを提案する。
我々はベイズニューラルネットワークモデルを用いて、探索中に動的モデルに符号化された信念と情報の両方を確率論的に表現する。
実験により,ベイズモデルに基づくRL手法の利点が示された。
論文 参考訳(メタデータ) (2024-04-02T11:44:37Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - A Control-Centric Benchmark for Video Prediction [69.22614362800692]
本稿では,アクション条件付きビデオ予測のベンチマークを,制御ベンチマークの形式で提案する。
私たちのベンチマークには、11のタスクカテゴリと310のタスクインスタンス定義を備えたシミュレーション環境が含まれています。
次に、ベンチマークを活用して、スケールするモデルサイズ、トレーニングデータの量、モデルアンサンブルの影響を調査します。
論文 参考訳(メタデータ) (2023-04-26T17:59:45Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Sample Efficient Robot Learning with Structured World Models [3.1761323820497656]
ゲーム環境では、世界モデルの使用は、優れた性能を保ちながら、サンプル効率を向上させることが示されている。
本稿では,RGB画像観察と,ロボットのスキル学習における共通アプローチである内蔵構造を利用した特徴空間を比較し,タスク性能と学習効率への影響を世界モデルと無関係に比較する。
論文 参考訳(メタデータ) (2022-10-21T22:08:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。