論文の概要: TidyBot: Personalized Robot Assistance with Large Language Models
- arxiv url: http://arxiv.org/abs/2305.05658v2
- Date: Wed, 11 Oct 2023 17:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 13:07:08.673072
- Title: TidyBot: Personalized Robot Assistance with Large Language Models
- Title(参考訳): tidybot:大型言語モデルによるパーソナライズされたロボット支援
- Authors: Jimmy Wu, Rika Antonova, Adam Kan, Marion Lepert, Andy Zeng, Shuran
Song, Jeannette Bohg, Szymon Rusinkiewicz, Thomas Funkhouser
- Abstract要約: 重要な課題は、各オブジェクトを置く適切な場所を決定することです。
ある人は引き出しにシャツを保管することを好むかもしれないし、別の人は棚にシャツを保管することを好むかもしれない。
ロボットは、言語に基づく計画と知覚を、大規模言語モデルの数発の要約能力と組み合わせることができることを示す。
- 参考スコア(独自算出の注目度): 46.629932362863386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For a robot to personalize physical assistance effectively, it must learn
user preferences that can be generally reapplied to future scenarios. In this
work, we investigate personalization of household cleanup with robots that can
tidy up rooms by picking up objects and putting them away. A key challenge is
determining the proper place to put each object, as people's preferences can
vary greatly depending on personal taste or cultural background. For instance,
one person may prefer storing shirts in the drawer, while another may prefer
them on the shelf. We aim to build systems that can learn such preferences from
just a handful of examples via prior interactions with a particular person. We
show that robots can combine language-based planning and perception with the
few-shot summarization capabilities of large language models (LLMs) to infer
generalized user preferences that are broadly applicable to future
interactions. This approach enables fast adaptation and achieves 91.2% accuracy
on unseen objects in our benchmark dataset. We also demonstrate our approach on
a real-world mobile manipulator called TidyBot, which successfully puts away
85.0% of objects in real-world test scenarios.
- Abstract(参考訳): ロボットが身体支援を効果的にパーソナライズするには、将来のシナリオに一般的に適用可能なユーザの好みを学習する必要がある。
本研究では,物体を拾って片付けることで部屋を掃除できるロボットによる家庭用クリーンアップのパーソナライズについて検討する。
重要な課題は、個人の好みや文化的背景によって人の好みが大きく変わるため、各対象を配置する適切な場所を決定することである。
例えば、ある人はシャツを引き出しに保管することを好むが、別の人は棚にシャツを保管することを好む。
我々は、特定の人との事前のインタラクションを通じて、少数の例からそのような好みを学習できるシステムを構築することを目指している。
ロボットは、言語に基づく計画と知覚を、大規模言語モデル(LLM)の数発の要約能力と組み合わせて、将来の対話に広く適用可能な一般化されたユーザの嗜好を推論できることを示す。
このアプローチは高速適応が可能で、ベンチマークデータセットで未認識のオブジェクトに対して91.2%の精度を実現します。
また、実世界のテストシナリオで85.0%のオブジェクトを取り除いたtidybotという実世界の移動マニピュレータへのアプローチを実証した。
関連論文リスト
- DegustaBot: Zero-Shot Visual Preference Estimation for Personalized Multi-Object Rearrangement [53.86523017756224]
本稿では,視覚的嗜好学習のためのアルゴリズムであるDegustaBotを提案する。
我々は、シミュレーション表設定タスクにおいて、自然主義的個人的嗜好の大規模なデータセットを収集する。
私たちのモデルの予測の50%は、少なくとも20%の人々に受け入れられる可能性が高いことが分かりました。
論文 参考訳(メタデータ) (2024-07-11T21:28:02Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Composing Pick-and-Place Tasks By Grounding Language [41.075844857146805]
制約のない言語指示に従って任意の物体を選定・配置するロボットシステムを提案する。
提案手法は,入力画像と言語表現からオブジェクトとその関係を推定する。
実世界のpr2ロボットを用いて得られた結果は,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-02-16T11:29:09Z) - Learning User-Preferred Mappings for Intuitive Robot Control [28.183430654834307]
そこで本研究では,ロボットのクエリから,人間の好みのマッピングや事前認識のマッピングを学習する手法を提案する。
我々は、人間の地図に強い先行性があることを認識して、このアプローチをデータ効率良くする。
シミュレーションおよび実験結果から,入力とロボット動作のマッピングを学習することで,客観的および主観的パフォーマンスが向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-22T18:54:35Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。