論文の概要: Learning Sequential Acquisition Policies for Robot-Assisted Feeding
- arxiv url: http://arxiv.org/abs/2309.05197v2
- Date: Mon, 16 Oct 2023 20:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 20:38:18.598906
- Title: Learning Sequential Acquisition Policies for Robot-Assisted Feeding
- Title(参考訳): ロボット支援給餌におけるシークエンシャル・アクセシション・ポリシーの学習
- Authors: Priya Sundaresan, Jiajun Wu, Dorsa Sadigh
- Abstract要約: 本稿では,長期食品購入の枠組みとして,視覚行動計画OveRシーケンス(VAPORS)を提案する。
VAPORSは、シミュレーションにおいて学習された潜在プレートダイナミクスを活用することで、ハイレベルなアクション選択のポリシーを学習する。
我々は,ヌードル獲得とゼリー豆のバイマンスクーピングを含む複雑な実世界の買収試験に対するアプローチを検証した。
- 参考スコア(独自算出の注目度): 37.371967116072966
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A robot providing mealtime assistance must perform specialized maneuvers with
various utensils in order to pick up and feed a range of food items. Beyond
these dexterous low-level skills, an assistive robot must also plan these
strategies in sequence over a long horizon to clear a plate and complete a
meal. Previous methods in robot-assisted feeding introduce highly specialized
primitives for food handling without a means to compose them together.
Meanwhile, existing approaches to long-horizon manipulation lack the
flexibility to embed highly specialized primitives into their frameworks. We
propose Visual Action Planning OveR Sequences (VAPORS), a framework for
long-horizon food acquisition. VAPORS learns a policy for high-level action
selection by leveraging learned latent plate dynamics in simulation. To carry
out sequential plans in the real world, VAPORS delegates action execution to
visually parameterized primitives. We validate our approach on complex
real-world acquisition trials involving noodle acquisition and bimanual
scooping of jelly beans. Across 38 plates, VAPORS acquires much more
efficiently than baselines, generalizes across realistic plate variations such
as toppings and sauces, and qualitatively appeals to user feeding preferences
in a survey conducted across 49 individuals. Code, datasets, videos, and
supplementary materials can be found on our website:
https://sites.google.com/view/vaporsbot.
- Abstract(参考訳): 食事支援ロボットは、さまざまな食材を拾い、給餌するために、様々な器具で特別な操作を行う必要がある。
これらの巧妙な低レベルスキル以外にも、補助ロボットは皿を片付け、食事を完成させるために、長い地平線を越えてこれらの戦略を順に計画する必要がある。
ロボット支援給餌の従来の方法は、それらを組み立てる手段を使わずに食品を扱うための高度に専門的なプリミティブを導入する。
一方、ロングホリゾン操作に対する既存のアプローチは、高度に専門化されたプリミティブをフレームワークに組み込む柔軟性を欠いている。
本稿では,長期食品購入のためのフレームワークであるVAPORS(Visual Action Planning OveR Sequences)を提案する。
VAPORSは、シミュレーションにおいて学習された潜在プレートダイナミクスを活用することで、ハイレベルなアクション選択のポリシーを学習する。
実世界でシーケンシャルプランを実行するために、VAPORSはアクションの実行を視覚的にパラメータ化されたプリミティブに委譲する。
我々は,ヌードル獲得とゼリー豆のバイマンスクーピングを含む複雑な実世界の買収試験に対するアプローチを検証する。
38枚のプレートで、VAPORSはベースラインよりもはるかに効率よく取得し、トッピングやソースのような現実的なプレートのバリエーションを一般化し、49人を対象に実施した調査において、利用者の嗜好に質的にアピールする。
コード、データセット、ビデオ、補足資料は、私たちのWebサイト(https://sites.google.com/view/vaporsbot)で参照できます。
関連論文リスト
- FoodLMM: A Versatile Food Assistant using Large Multi-modal Model [102.53130531577892]
大規模マルチモーダルモデル(LMM)は多くの視覚言語タスクにおいて顕著な進歩を遂げている。
本稿では,食品認識,食材認識,レシピ生成,栄養推定,食品セグメンテーション,多ラウンド会話など,多機能なLMMに基づく多目的食品アシスタントであるFoodLMMを提案する。
論文 参考訳(メタデータ) (2023-12-22T11:56:22Z) - From Plate to Production: Artificial Intelligence in Modern
Consumer-Driven Food Systems [32.55158589420258]
世界の食料システムは、需要が増大する中で、供給と栄養価の高いダイエットに直面している。
人工知能の出現は、個人の選択革命をもたらし、AIによる個人による決定が食品システムを変える。
本稿では,食品分野におけるAIの約束と課題について考察する。
論文 参考訳(メタデータ) (2023-11-04T13:13:44Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - FIRE: Food Image to REcipe generation [11.214936422138742]
フードコンピューティングは、食品画像のレシピ情報を自律的に生成できるエンドツーエンドのインテリジェントシステムを開発することを目的としている。
本稿では,食品コンピューティング分野におけるレシピ生成に適した新しい手法であるFIREを提案する。
本稿では、FIREと大規模言語モデルのプロンプトを統合することの恩恵を享受できる2つの実用的なアプリケーションを紹介する。
論文 参考訳(メタデータ) (2023-08-28T08:14:20Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - DiMSam: Diffusion Models as Samplers for Task and Motion Planning under
Partial Observability [50.38132214102161]
タスク・アンド・モーション・プランニング(TAMP)アプローチは、長距離自律ロボット操作の計画に有効である。
本稿では,これらの制約を深層生成モデルを用いて克服することを提案する。
古典的TAMP, 生成学習, 潜伏埋め込みの組み合わせが, 長期的制約に基づく推論にどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-06-22T20:40:24Z) - Pave the Way to Grasp Anything: Transferring Foundation Models for
Universal Pick-Place Robots [50.73735524550534]
そこで本稿では,最先端基礎モデルによって生成された言語基底セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
マスクから伝達される正確なセマンティクスとジオメトリを多視点ポリシーモデルに統合することにより、正確なオブジェクトのポーズを認識し、サンプル効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Semi-Automated Construction of Food Composition Knowledge Base [0.06445605125467573]
本稿では,オンラインの科学文献から食品組成の知識基盤を構築するための半自動フレームワークを提案する。
我々の研究は、人間のループモデルが、ますます増加するビッグデータに順応するAI支援食品システムへの一歩であることを実証している。
論文 参考訳(メタデータ) (2023-01-24T22:08:49Z) - Learning Visuo-Haptic Skewering Strategies for Robot-Assisted Feeding [13.381485293778654]
我々は、物体との相互作用における視覚的および触覚的な観察を活用して、ストーブ動作を計画する。
我々は、生の感覚入力から食品の一般化可能なマルチモーダル表現を学習する。
既往のアイテムのビジュオハプティックな特性を検知し,反応的にストーブするゼロショットフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-26T20:01:03Z) - Knowledge Retrieval for Robotic Cooking [0.0]
機能的オブジェクト指向ネットワークにおける検索アルゴリズム開発の背後にある動機は、ほとんどの場合、特定のレシピを検索するか、特定のレシピの材料を判断する必要があることである。
本稿では,ロボットと人間が複雑なタスクを一緒に完了させるための重み付きFOONとタスク計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-08T19:40:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。