論文の概要: Exploration-assisted Bottleneck Transition Toward Robust and Data-efficient Deformable Object Manipulation
- arxiv url: http://arxiv.org/abs/2603.13756v1
- Date: Sat, 14 Mar 2026 05:09:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.387696
- Title: Exploration-assisted Bottleneck Transition Toward Robust and Data-efficient Deformable Object Manipulation
- Title(参考訳): ロバストおよびデータ効率のよい変形可能な物体操作に向けての探索支援型ボトルネック遷移
- Authors: Yujiro Onishi, Ryo Takizawa, Yoshiyuki Ohmura, Yasuo Kuniyoshi,
- Abstract要約: 模倣学習はロボット操作において顕著な結果を示したが、アウト・オブ・ディストリビューション(OOD)状態では失敗している。
この制限はDeformable Object Manipulation(DOM)において特に重要である。
本稿では,OOD問題に対処する新しいフレームワークであるExploration-assisted Bottleneck Transition for Deformable Object Manipulation (ExBot)を提案する。
- 参考スコア(独自算出の注目度): 3.8731899020772165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation learning has demonstrated impressive results in robotic manipulation but fails under out-of-distribution (OOD) states. This limitation is particularly critical in Deformable Object Manipulation (DOM), where the near-infinite possible configurations render comprehensive data collection infeasible. Although several methods address OOD states, they typically require exhaustive data or highly precise perception. Such requirements are often impractical for DOM owing to its inherent complexities, including self-occlusion. To address the OOD problem in DOM, we propose a novel framework, Exploration-assisted Bottleneck Transition for Deformable Object Manipulation (ExBot), which addresses the OOD challenge through two key advantages. First, we introduce bottleneck states, standardized configurations that serve as starting points for task execution. This enables the reconceptualization of OOD challenges as the problem of transitioning diverse initial states to these bottleneck states, significantly reducing demonstration requirements. Second, to account for imperfect perception, we partition the OOD state space based on recognizability and employ dual action primitives. This approach enables ExBot to manipulate even unrecognizable states without requiring accurate perception. By concentrating demonstrations around bottleneck states and leveraging exploration to alter perceptual conditions, ExBot achieves both data efficiency and robustness to severe OOD scenarios. Real-world experiments on rope and cloth manipulation demonstrate successful task completion from diverse OOD states, including severe self-occlusions.
- Abstract(参考訳): 模倣学習はロボット操作において顕著な結果を示したが、アウト・オブ・ディストリビューション(OOD)状態では失敗している。
この制限はDeformable Object Manipulation(DOM)において特に重要である。
いくつかの方法はOOD状態に対処するが、一般的には徹底的なデータや高精度な知覚を必要とする。
このような要件は、自己閉塞を含む固有の複雑さのため、しばしばDOMにとって実用的ではない。
DOMにおけるOOD問題に対処するため,OOD問題に対処する新しいフレームワークであるExploration-assisted Bottleneck Transition for Deformable Object Manipulation (ExBot)を提案する。
まず、タスク実行の出発点として機能するボトルネック状態、標準化された構成を導入する。
これにより、多様な初期状態をこれらのボトルネック状態に移行する問題として、OOD課題の再認識が可能となり、デモンストレーション要件が大幅に削減される。
第二に、不完全な知覚を説明するために、認識可能性に基づいてOOD状態空間を分割し、二重作用プリミティブを用いる。
このアプローチにより、ExBotは正確な認識を必要とせずに、認識不能な状態を操作できる。
ボトルネック状態に関するデモに集中し、知覚的条件を変更するために探索を活用することで、ExBotは厳しいOODシナリオに対して、データの効率性と堅牢性の両方を達成する。
ロープと布の操作に関する実世界の実験は、厳しい自己閉塞を含む様々なOOD状態からのタスク完了を実証した。
関連論文リスト
- Hierarchical Vision Language Action Model Using Success and Failure Demonstrations [60.82332413442677]
階層型視覚-言語-アクションモデルであるVINEを導入し,高レベル推論を低レベル制御から分離する。
システム2は、2Dシーングラフの抽象化を介して、実現可能性誘導木探索を行う。
システム1はエージェントのコアスキルを変更することなく、低レベルのアクションを実行する。
論文 参考訳(メタデータ) (2025-12-03T15:58:38Z) - Dexplore: Scalable Neural Control for Dexterous Manipulation from Reference-Scoped Exploration [58.4036440289082]
ハンドオブジェクトモーションキャプチャ(MoCap)は、大規模でコンタクトに富んだデモと、器用なロボットスコープの約束を提供する。
Dexploreは、リポジトリとトラッキングを実行し、MoCapから直接ロボット制御ポリシーを学習する、統一された単一ループ最適化である。
論文 参考訳(メタデータ) (2025-09-11T17:59:07Z) - One-Shot Affordance Grounding of Deformable Objects in Egocentric Organizing Scenes [13.744125449326376]
ロボット工学における変形可能なオブジェクト操作は、コンポーネント特性の不確かさ、多様な構成、視覚的干渉、曖昧なプロンプトなどによる重大な課題を呈している。
自己中心型組織シーンにおける変形性物体のワンショット強調グラウンド(OS-AGDO)の新たな手法を提案する。
実験結果から,本手法は最先端手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-03-03T01:34:56Z) - Seamless Detection: Unifying Salient Object Detection and Camouflaged Object Detection [73.85890512959861]
本稿では,SOD(Salient Object Detection)とCOD(Camouflaged Object Detection)を統合化するためのタスク非依存フレームワークを提案する。
我々は、間隔層と大域的コンテキストを含む単純で効果的なコンテキストデコーダを設計し、67fpsの推論速度を実現する。
公開SODデータセットとCODデータセットの実験は、教師なし設定と教師なし設定の両方において、提案したフレームワークの優位性を実証している。
論文 参考訳(メタデータ) (2024-12-22T03:25:43Z) - Skeleton-OOD: An End-to-End Skeleton-Based Model for Robust Out-of-Distribution Human Action Detection [17.85872085904999]
そこで我々はSkeleton-OODと呼ばれる新しい骨格モデルを提案する。
Skeleton-OODは、ID認識の精度を確保しつつ、OODタスクの有効性を向上させる。
本研究は,骨格型行動認識タスクの文脈における従来のOOD検出技術の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-05-31T05:49:37Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - SOOD: Towards Semi-Supervised Oriented Object Detection [57.05141794402972]
本稿では, 主流の擬似ラベリングフレームワーク上に構築された, SOOD と呼ばれる, 半教師付きオブジェクト指向物体検出モデルを提案する。
提案した2つの損失をトレーニングした場合,SOODはDOTA-v1.5ベンチマークの様々な設定下で,最先端のSSOD法を超越することを示した。
論文 参考訳(メタデータ) (2023-04-10T11:10:42Z) - Learning Foresightful Dense Visual Affordance for Deformable Object
Manipulation [5.181990978232578]
本研究では,多種多様な状態への一般化をめざして,高密度な視覚能力を用いた変形可能な物体の操作について検討する。
本稿では,この表現を学習するためのフレームワークを提案し,多段階安定学習や,専門家のいない効率的な自己教師型データ収集などの新しい設計を提案する。
論文 参考訳(メタデータ) (2023-03-20T12:14:13Z) - DOODLER: Determining Out-Of-Distribution Likelihood from Encoder
Reconstructions [6.577622354490276]
本稿では,Of-Distribution Detectionのための新しい手法であるDOODLERを紹介し,検討する。
変分オートエンコーダを他のディープラーニングモデルと同じデータでトレーニングすることにより、VAEは、ID(In-Distribution)入力を正確に再構築することを学ぶが、OOD入力は再構築しない。
この分野の他の研究とは異なり、DOODLERはOODデータセットの存在について非常に弱い仮定しか必要とせず、より現実的なアプリケーションを可能にする。
論文 参考訳(メタデータ) (2021-09-27T14:54:55Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。