論文の概要: Learning Sequential Acquisition Policies for Robot-Assisted Feeding
- arxiv url: http://arxiv.org/abs/2309.05197v1
- Date: Mon, 11 Sep 2023 02:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 14:10:17.952345
- Title: Learning Sequential Acquisition Policies for Robot-Assisted Feeding
- Title(参考訳): ロボット支援給餌におけるシークエンシャル・アクセシション・ポリシーの学習
- Authors: Priya Sundaresan, Jiajun Wu, Dorsa Sadigh
- Abstract要約: 本稿では,長期食品購入の枠組みとして,視覚行動計画OveRシーケンス(VAPORS)を提案する。
VAPORSは、シミュレーションにおいて学習された潜在プレートダイナミクスを活用することで、ハイレベルなアクション選択のポリシーを学習する。
我々は,ヌードル獲得とゼリー豆のバイマンスクーピングを含む複雑な実世界の買収試験に対するアプローチを検証した。
- 参考スコア(独自算出の注目度): 37.371967116072966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A robot providing mealtime assistance must perform specialized maneuvers with
various utensils in order to pick up and feed a range of food items. Beyond
these dexterous low-level skills, an assistive robot must also plan these
strategies in sequence over a long horizon to clear a plate and complete a
meal. Previous methods in robot-assisted feeding introduce highly specialized
primitives for food handling without a means to compose them together.
Meanwhile, existing approaches to long-horizon manipulation lack the
flexibility to embed highly specialized primitives into their frameworks. We
propose Visual Action Planning OveR Sequences (VAPORS), a framework for
long-horizon food acquisition. VAPORS learns a policy for high-level action
selection by leveraging learned latent plate dynamics in simulation. To carry
out sequential plans in the real world, VAPORS delegates action execution to
visually parameterized primitives. We validate our approach on complex
real-world acquisition trials involving noodle acquisition and bimanual
scooping of jelly beans. Across 38 plates, VAPORS acquires much more
efficiently than baselines, generalizes across realistic plate variations such
as toppings and sauces, and qualitatively appeals to user feeding preferences
in a survey conducted across 49 individuals. Code, datasets, videos, and
supplementary materials can be found on our website:
https://sites.google.com/view/vaporsbot.
- Abstract(参考訳): 食事支援ロボットは、さまざまな食材を拾い、給餌するために、様々な器具で特別な操作を行う必要がある。
これらの巧妙な低レベルスキル以外にも、補助ロボットは皿を片付け、食事を完成させるために、長い地平線を越えてこれらの戦略を順に計画する必要がある。
ロボット支援給餌の従来の方法は、それらを組み立てる手段を使わずに食品を扱うための高度に専門的なプリミティブを導入する。
一方、ロングホリゾン操作に対する既存のアプローチは、高度に専門化されたプリミティブをフレームワークに組み込む柔軟性を欠いている。
本稿では,長期食品購入のためのフレームワークであるVAPORS(Visual Action Planning OveR Sequences)を提案する。
VAPORSは、シミュレーションにおいて学習された潜在プレートダイナミクスを活用することで、ハイレベルなアクション選択のポリシーを学習する。
実世界でシーケンシャルプランを実行するために、VAPORSはアクションの実行を視覚的にパラメータ化されたプリミティブに委譲する。
我々は,ヌードル獲得とゼリー豆のバイマンスクーピングを含む複雑な実世界の買収試験に対するアプローチを検証する。
38枚のプレートで、VAPORSはベースラインよりもはるかに効率よく取得し、トッピングやソースのような現実的なプレートのバリエーションを一般化し、49人を対象に実施した調査において、利用者の嗜好に質的にアピールする。
コード、データセット、ビデオ、補足資料は、私たちのWebサイト(https://sites.google.com/view/vaporsbot)で参照できます。
関連論文リスト
- ActionCOMET: A Zero-shot Approach to Learn Image-specific Commonsense Concepts about Actions [66.20773952864802]
我々は8.5k画像と59.3k画像に接地されたアクションに関する59.3kの推論からなるデータセットを開発する。
本稿では、提供された視覚入力に特有の言語モデルに存在する知識を識別するフレームワークであるActionCOMETを提案する。
論文 参考訳(メタデータ) (2024-10-17T15:22:57Z) - Real-World Cooking Robot System from Recipes Based on Food State Recognition Using Foundation Models and PDDL [17.164384202639496]
本研究では,実世界のロボット調理行動計画を統合したロボットシステムを提案する。
両腕の車輪付きロボットであるPR2が、現実の環境で配置された新しいレシピを調理する実験に成功した。
論文 参考訳(メタデータ) (2024-10-03T18:02:56Z) - IMRL: Integrating Visual, Physical, Temporal, and Geometric Representations for Enhanced Food Acquisition [16.32678094159896]
IMRL(Integrated Multi-dimensional Representation Learning, 統合多次元表現学習)を導入し, 食品取得におけるILの堅牢性と一般化性を高めるために視覚的, 物理的, 時間的, 幾何学的表現を統合した。
提案手法は, 食品の種類や物理的特性を捉え, 獲得行動の時間的ダイナミクスをモデル化し, 最適スクーピング点を決定するための幾何学的情報を導入する。
IMRLにより、ILはコンテキストに基づいてスクーピング戦略を適応的に調整し、多様な食品取得シナリオを扱うロボットの能力を改善することができる。
論文 参考訳(メタデータ) (2024-09-18T16:09:06Z) - RoDE: Linear Rectified Mixture of Diverse Experts for Food Large Multi-Modal Models [96.43285670458803]
Uni-Foodは、さまざまな食品ラベルを持つ10万以上の画像からなる統合食品データセットである。
Uni-Foodは、食品データ分析に対するより包括的なアプローチを提供するように設計されている。
本稿では,食品関連マルチタスキングの課題に対処するため,新しいリニア・リクティフィケーション・ミックス・オブ・ディバース・エキスパート (RoDE) アプローチを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:49:34Z) - FLAIR: Feeding via Long-horizon AcquIsition of Realistic dishes [23.72810526053693]
FLAIRは、基礎モデルの常識と少数ショット推論能力を活用する、長期給餌システムである。
現実的な6つのプレートの実際の評価では、FLAIRは効率的な食品のピックアップのために、様々なスキルのライブラリーを効果的に活用できることがわかった。
論文 参考訳(メタデータ) (2024-07-10T11:38:57Z) - FoodLMM: A Versatile Food Assistant using Large Multi-modal Model [96.76271649854542]
大規模マルチモーダルモデル(LMM)は多くの視覚言語タスクにおいて顕著な進歩を遂げている。
本稿では,多機能なLMMに基づく多目的食品アシスタントであるFoodLMMを提案する。
本稿では,食品の栄養価と複数のセグメンテーションマスクを予測するために,一連の新しいタスク固有のトークンとヘッドを導入する。
論文 参考訳(メタデータ) (2023-12-22T11:56:22Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - FIRE: Food Image to REcipe generation [10.45344523054623]
フードコンピューティングは、食品画像のレシピ情報を自律的に生成できるエンドツーエンドのインテリジェントシステムを開発することを目的としている。
本稿では,食品コンピューティング分野におけるレシピ生成に適した新しい手法であるFIREを提案する。
本稿では、FIREと大規模言語モデルのプロンプトを統合することの恩恵を享受できる2つの実用的なアプリケーションを紹介する。
論文 参考訳(メタデータ) (2023-08-28T08:14:20Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Learning Visuo-Haptic Skewering Strategies for Robot-Assisted Feeding [13.381485293778654]
我々は、物体との相互作用における視覚的および触覚的な観察を活用して、ストーブ動作を計画する。
我々は、生の感覚入力から食品の一般化可能なマルチモーダル表現を学習する。
既往のアイテムのビジュオハプティックな特性を検知し,反応的にストーブするゼロショットフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-26T20:01:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。