論文の概要: SEAL: Semantic Frame Execution And Localization for Perceiving Afforded
Robot Actions
- arxiv url: http://arxiv.org/abs/2303.14067v1
- Date: Fri, 24 Mar 2023 15:25:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:12:11.120904
- Title: SEAL: Semantic Frame Execution And Localization for Perceiving Afforded
Robot Actions
- Title(参考訳): SEAL: ロボット行動認識のための意味的フレーム実行と局所化
- Authors: Cameron Kisailus, Daksh Narang, Matthew Shannon, Odest Chadwicke
Jenkins
- Abstract要約: 本稿では,ロボット操作行動のセマンティックフレーム表現を拡張し,セマンティックフレーム実行と局所化の問題をグラフィカルモデルとして導入する。
SEAL問題に対して、ロボットに与えられた行動の場所として、有限のセマンティックフレームに対する信念を維持するための非パラメトリックセマンティックフレームマッピング(SeFM)アルゴリズムについて述べる。
- 参考スコア(独自算出の注目度): 5.522839151632667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in robotic mobile manipulation have spurred the expansion of
the operating environment for robots from constrained workspaces to
large-scale, human environments. In order to effectively complete tasks in
these spaces, robots must be able to perceive, reason, and execute over a
diversity of affordances, well beyond simple pick-and-place. We posit the
notion of semantic frames provides a compelling representation for robot
actions that is amenable to action-focused perception, task-level reasoning,
action-level execution, and integration with language. Semantic frames, a
product of the linguistics community, define the necessary elements, pre- and
post- conditions, and a set of sequential robot actions necessary to
successfully execute an action evoked by a verb phrase. In this work, we extend
the semantic frame representation for robot manipulation actions and introduce
the problem of Semantic Frame Execution And Localization for Perceiving
Afforded Robot Actions (SEAL) as a graphical model. For the SEAL problem, we
describe our nonparametric Semantic Frame Mapping (SeFM) algorithm for
maintaining belief over a finite set of semantic frames as the locations of
actions afforded to the robot. We show that language models such as GPT-3 are
insufficient to address generalized task execution covered by the SEAL
formulation and SeFM provides robots with efficient search strategies and long
term memory needed when operating in building-scale environments.
- Abstract(参考訳): ロボット移動操作の最近の進歩は、制約された作業空間から大規模な人的環境へのロボットの動作環境の拡大を刺激している。
これらの空間でのタスクを効果的に完了させるためには、ロボットは単純なピック・アンド・プレースを超えて、様々な手当を認識、推論し、実行しなくてはならない。
セマンティックフレームの概念は、アクション中心の認識、タスクレベル推論、アクションレベル実行、言語との統合に適するロボットアクションの説得力のある表現を提供する。
セマンティックフレーム(Semantic frame)は、言語学コミュニティの産物であり、必要な要素、事前および後条件、そして動詞句によって誘発される行動を実行するのに必要な一連のロボットアクションを定義する。
本研究では,ロボット操作動作における意味フレーム表現を拡張し,図形モデルとしてロボット動作知覚のための意味フレーム実行と局所化の問題を導入する。
SEAL問題に対して、ロボットに与えられた行動の場所として、有限のセマンティックフレームに対する信念を維持するための非パラメトリックセマンティックフレームマッピング(SeFM)アルゴリズムについて述べる。
GPT-3のような言語モデルはSEALの定式化でカバーされる汎用タスク実行に対応できないことを示し、SEFMはロボットにビルスケール環境での動作に必要な効率的な探索戦略と長期記憶を提供する。
関連論文リスト
- Time is on my sight: scene graph filtering for dynamic environment perception in an LLM-driven robot [0.8515309662618664]
本稿では,人間とロボットのインタラクションにおける重要な課題に対処するロボット制御アーキテクチャを提案する。
アーキテクチャはLarge Language Modelsを使用して、自然言語コマンドを含む多様な情報ソースを統合する。
このアーキテクチャは、動的環境における適応性、タスク効率、人間とロボットのコラボレーションを強化する。
論文 参考訳(メタデータ) (2024-11-22T15:58:26Z) - Robots Can Multitask Too: Integrating a Memory Architecture and LLMs for Enhanced Cross-Task Robot Action Generation [13.181465089984567]
大規模言語モデル(LLM)は、ロボットの知覚と身体能力による常識推論の基盤となるロボット応用に最近使用されている。
本稿では,タスク間を効果的に切り替える一方で,タスク間動作を生成するためのLLMをメモリプロセスに組み込むことに対処する。
その結果,5つのロボットタスクのベースラインよりも性能が大幅に向上し,ロボットの動作と適応タスク実行の知覚を組み合わせたLLMにメモリを統合する可能性が示された。
論文 参考訳(メタデータ) (2024-07-18T13:38:21Z) - Enhancing the LLM-Based Robot Manipulation Through Human-Robot Collaboration [4.2460673279562755]
大規模言語モデル(LLM)はロボット工学の分野で人気を集めている。
本稿では,人間ロボットコラボレーション(HRC)によるLLMに基づく自律操作の性能向上のための新しいアプローチを提案する。
このアプローチでは、高レベルの言語コマンドをロボットによって実行できる一連の動作に分解するために、引き起こされたGPT-4言語モデルを使用する。
論文 参考訳(メタデータ) (2024-06-20T08:23:49Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - WALL-E: Embodied Robotic WAiter Load Lifting with Large Language Model [92.90127398282209]
本稿では,最新のLarge Language Models(LLM)と既存のビジュアルグラウンドとロボットグルーピングシステムを統合する可能性について検討する。
本稿では,この統合の例としてWALL-E (Embodied Robotic WAiter load lifting with Large Language model)を紹介する。
我々は,このLCMを利用したシステムを物理ロボットに展開し,よりユーザフレンドリなインタフェースで指導誘導型把握タスクを実現する。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - Can Foundation Models Perform Zero-Shot Task Specification For Robot
Manipulation? [54.442692221567796]
タスク仕様は、熟練していないエンドユーザの関与とパーソナライズされたロボットの採用に不可欠である。
タスク仕様に対する広く研究されているアプローチは、目標を通じて、コンパクトな状態ベクトルまたは同じロボットシーンのゴールイメージを使用することである。
そこで本研究では,人間の指定や使用が容易な目標仕様の代替的,より汎用的な形式について検討する。
論文 参考訳(メタデータ) (2022-04-23T19:39:49Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。