論文の概要: Learning Bimanual Scooping Policies for Food Acquisition
- arxiv url: http://arxiv.org/abs/2211.14652v1
- Date: Sat, 26 Nov 2022 20:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 16:52:00.027604
- Title: Learning Bimanual Scooping Policies for Food Acquisition
- Title(参考訳): 食品購入のための二元的スクープ政策の学習
- Authors: Jennifer Grannen, Yilin Wu, Suneel Belkhale, Dorsa Sadigh
- Abstract要約: ロボット給餌システムは、さまざまな食品を入手できなければならない。
前回の噛み取り作業では、シングルアームスプーンスクーピングやフォークスキューワーが検討されている。
本稿では,汎用的な双方向スクーピングプリミティブと適応安定化戦略を提案する。
- 参考スコア(独自算出の注目度): 13.053304674473726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A robotic feeding system must be able to acquire a variety of foods. Prior
bite acquisition works consider single-arm spoon scooping or fork skewering,
which do not generalize to foods with complex geometries and deformabilities.
For example, when acquiring a group of peas, skewering could smoosh the peas
while scooping without a barrier could result in chasing the peas on the plate.
In order to acquire foods with such diverse properties, we propose stabilizing
food items during scooping using a second arm, for example, by pushing peas
against the spoon with a flat surface to prevent dispersion. The added
stabilizing arm can lead to new challenges. Critically, this arm should
stabilize the food scene without interfering with the acquisition motion, which
is especially difficult for easily breakable high-risk food items like tofu.
These high-risk foods can break between the pusher and spoon during scooping,
which can lead to food waste falling out of the spoon. We propose a general
bimanual scooping primitive and an adaptive stabilization strategy that enables
successful acquisition of a diverse set of food geometries and physical
properties. Our approach, CARBS: Coordinated Acquisition with Reactive Bimanual
Scooping, learns to stabilize without impeding task progress by identifying
high-risk foods and robustly scooping them using closed-loop visual feedback.
We find that CARBS is able to generalize across food shape, size, and
deformability and is additionally able to manipulate multiple food items
simultaneously. CARBS achieves 87.0% success on scooping rigid foods, which is
25.8% more successful than a single-arm baseline, and reduces food breakage by
16.2% compared to an analytical baseline. Videos can be found at
https://sites.google.com/view/bimanualscoop-corl22/home .
- Abstract(参考訳): ロボット給餌システムは、さまざまな食品を入手できなければならない。
前回の噛み取り作業では、複雑なジオメトリーと変形性を持つ食品に一般化しない単一アームのスプーンスクーピングやフォークスキューイングが検討されている。
例えば、エンドウ豆の群れを取得すると、スケワーリングは、バリアなしでスクーピングしながらエンドウ豆をスムースにし、皿の上でエンドウ豆を追いかける。
このような多様な特性を持つ食品を得るために, 平らな面でスプーンに押し付けて分散を防止するなど, 第2のアームを用いたスクープ時の食品の安定化を提案する。
安定化アームの追加は、新たな課題につながる可能性がある。
この腕は、入手動作に干渉することなく、食品シーンを安定させる必要があり、特に豆腐のような危険度の高い食品を壊すことは困難である。
これらの高リスク食品は、スクーピング中に押し機とスプーンの間に破れ、スプーンから食品廃棄物が落ちてしまう。
本稿では,多種多様な食品ジオメトリと物理特性の獲得を成功させる汎用的な2次元スクーピングプリミティブと適応安定化戦略を提案する。
当社のアプローチであるCARBS:Coordinated Acquisition with Reactive Bimanual Scoopingは、リスクの高い食品を識別し、クローズドループ視覚フィードバックを用いて頑健にスクープすることで、タスク進捗を妨げることなく安定化を学習する。
また,CARBSは食品の形状,大きさ,変形性を一般化し,同時に複数の食品を操作できることがわかった。
CARBSは硬質食品のスクーピングで87.0%成功し、これはシングルアームベースラインよりも25.8%成功し、分析ベースラインと比較して食品の破損を16.2%減少させる。
ビデオはhttps://sites.google.com/view/bimanualscoop-corl22/homeで見ることができる。
関連論文リスト
- Automating Food Drop: The Power of Two Choices for Dynamic and Fair Food Allocation [51.687404103375506]
私たちはインディアナ州の非営利組織とパートナーし、EmphFood Dropというプログラムを率いています。
このパートナーシップの目標は、Food Dropを完全に自動化することにあります。
そのためには、食品を受け取った食品銀行の公正性の確保と、トラック運転手の効率の最適化を両立させるために、リアルタイムな意思決定を行うためのマッチングアルゴリズムが必要である。
論文 参考訳(メタデータ) (2024-06-10T15:22:41Z) - NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - Adaptive Visual Imitation Learning for Robotic Assisted Feeding Across Varied Bowl Configurations and Food Types [17.835835270751176]
ロボット支援給餌(RAF)のための空間的注意モジュールを備えた新しい視覚模倣ネットワークを提案する。
本研究では,視覚認識と模倣学習を統合して,ロボットがスクーピング中に多様なシナリオを扱えるようにするためのフレームワークを提案する。
AVIL(adaptive visual mimicion learning, 適応的視覚模倣学習)と呼ばれる我々のアプローチは、異なるボウル構成にまたがる適応性と堅牢性を示す。
論文 参考訳(メタデータ) (2024-03-19T16:40:57Z) - Learning Sequential Acquisition Policies for Robot-Assisted Feeding [37.371967116072966]
本稿では,長期食品購入の枠組みとして,視覚行動計画OveRシーケンス(VAPORS)を提案する。
VAPORSは、シミュレーションにおいて学習された潜在プレートダイナミクスを活用することで、ハイレベルなアクション選択のポリシーを学習する。
我々は,ヌードル獲得とゼリー豆のバイマンスクーピングを含む複雑な実世界の買収試験に対するアプローチを検証した。
論文 参考訳(メタデータ) (2023-09-11T02:20:28Z) - Transferring Knowledge for Food Image Segmentation using Transformers
and Convolutions [65.50975507723827]
食品画像のセグメンテーションは、食品の皿の栄養価を推定するなど、ユビキタスな用途を持つ重要なタスクである。
1つの課題は、食品が重なり合ったり混ざったりし、区別が難しいことだ。
2つのモデルが訓練され、比較される。1つは畳み込みニューラルネットワークに基づくもので、もう1つは画像変換器(BEiT)のための双方向表現に関するものである。
BEiTモデルは、FoodSeg103上の49.4の結合の平均的交点を達成することで、従来の最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2023-06-15T15:38:10Z) - Cluttered Food Grasping with Adaptive Fingers and Synthetic-Data Trained
Object Detection [8.218146534971156]
食品包装産業は、幅広い形状と大きさのさまざまな食品を扱う。
ビンピッキングの一般的なアプローチは、まず、インスタンスセグメンテーション法を用いてトレイ内の各食品を識別することである。
合成データを純粋に訓練し,sim2real法を用いて実世界へ転送する手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T06:44:09Z) - Enhancing Food Intake Tracking in Long-Term Care with Automated Food
Imaging and Nutrient Intake Tracking (AFINI-T) Technology [71.37011431958805]
長期医療(LTC)の住民の半数は、入院、死亡、死亡率、生活の質の低下が悪化している。
本稿では,LCCのための食品自動撮像・栄養摂取追跡技術(AFINI-T)について述べる。
論文 参考訳(メタデータ) (2021-12-08T22:25:52Z) - Leveraging Post Hoc Context for Faster Learning in Bandit Settings with
Applications in Robot-Assisted Feeding [23.368884607763093]
自律的なロボット支援給餌には、さまざまな食品を入手する能力が必要である。
以前の研究では、問題は視覚的コンテキストを持つ線形バンディットとして表現できることが示されていた。
本稿では,ポストホックコンテキストを付加したリニアコンテキスト帯域幅フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-05T01:28:25Z) - Cross-Modal Food Retrieval: Learning a Joint Embedding of Food Images
and Recipes with Semantic Consistency and Attention Mechanism [70.85894675131624]
画像とレシピを共通の特徴空間に埋め込み、対応する画像とレシピの埋め込みが互いに近接するように学習する。
本稿では,2つのモダリティの埋め込みを正規化するためのセマンティック・一貫性とアテンション・ベース・ネットワーク(SCAN)を提案する。
食品画像や調理レシピの最先端のクロスモーダル検索戦略を,かなりの差で達成できることが示される。
論文 参考訳(メタデータ) (2020-03-09T07:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。