論文の概要: Natural Language Robot Programming: NLP integrated with autonomous
robotic grasping
- arxiv url: http://arxiv.org/abs/2304.02993v1
- Date: Thu, 6 Apr 2023 11:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 14:29:12.331103
- Title: Natural Language Robot Programming: NLP integrated with autonomous
robotic grasping
- Title(参考訳): 自然言語ロボットプログラミング:自律的ロボットハンドリングと統合したnlp
- Authors: Muhammad Arshad Khan, Max Kenney, Jack Painter, Disha Kamale, Riza
Batista-Navarro, Amir Ghalamzan-E
- Abstract要約: 本稿では,ロボットプログラミングのための文法に基づく自然言語フレームワークについて述べる。
私たちのアプローチでは、意味を共有する単語をまとめて格納するために設計された、アクションワードのカスタム辞書を使用します。
我々は、Franka Pandaロボットアームを用いて、シミュレーションと実世界の実験を通して、我々のフレームワークを検証する。
- 参考スコア(独自算出の注目度): 1.7045152415056037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a grammar-based natural language framework for
robot programming, specifically for pick-and-place tasks. Our approach uses a
custom dictionary of action words, designed to store together words that share
meaning, allowing for easy expansion of the vocabulary by adding more action
words from a lexical database. We validate our Natural Language Robot
Programming (NLRP) framework through simulation and real-world experimentation,
using a Franka Panda robotic arm equipped with a calibrated camera-in-hand and
a microphone. Participants were asked to complete a pick-and-place task using
verbal commands, which were converted into text using Google's Speech-to-Text
API and processed through the NLRP framework to obtain joint space trajectories
for the robot. Our results indicate that our approach has a high system
usability score. The framework's dictionary can be easily extended without
relying on transfer learning or large data sets. In the future, we plan to
compare the presented framework with different approaches of human-assisted
pick-and-place tasks via a comprehensive user study.
- Abstract(参考訳): 本稿では,ロボットプログラミングのための文法に基づく自然言語フレームワークについて述べる。
このアプローチでは、意味を共有する単語を格納する独自のアクションワード辞書を使用しており、語彙データベースからより多くのアクションワードを追加することで、語彙の拡張が容易になる。
キャリブレーションされたカメラとマイクを備えたFranka Pandaロボットアームを用いて,シミュレーションと実世界の実験を通じて自然言語ロボットプログラミング(NLRP)フレームワークを検証する。
参加者は、GoogleのSpeech-to-Text APIを使ってテキストに変換され、NLRPフレームワークを介して処理され、ロボットの関節空間軌跡を得る。
その結果,提案手法はシステムユーザビリティスコアが高いことがわかった。
フレームワークの辞書は、転送学習や大規模なデータセットに頼ることなく簡単に拡張できる。
今後,提案フレームワークを,包括的ユーザスタディを通して,人間支援型ピック・アンド・プレースタスクの異なるアプローチと比較する予定である。
関連論文リスト
- Context-Aware Command Understanding for Tabletop Scenarios [1.7082212774297747]
本稿では,テーブルトップシナリオにおける自然人コマンドの解釈を目的とした,新しいハイブリッドアルゴリズムを提案する。
音声、ジェスチャー、シーンコンテキストを含む複数の情報ソースを統合することにより、ロボットに対して実行可能な指示を抽出する。
システムの長所と短所、特にマルチモーダルコマンド解釈の扱い方について論じる。
論文 参考訳(メタデータ) (2024-10-08T20:46:39Z) - LLaRA: Supercharging Robot Learning Data for Vision-Language Policy [56.505551117094534]
視覚言語モデル(VLM)は、状態情報を視覚的テキストのプロンプトとして処理し、テキスト内のポリシー決定に応答することができる。
LLaRA:Large Language and Robotics Assistantは,ロボットの行動ポリシーを会話として定式化するフレームワークである。
論文 参考訳(メタデータ) (2024-06-28T17:59:12Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - WALL-E: Embodied Robotic WAiter Load Lifting with Large Language Model [92.90127398282209]
本稿では,最新のLarge Language Models(LLM)と既存のビジュアルグラウンドとロボットグルーピングシステムを統合する可能性について検討する。
本稿では,この統合の例としてWALL-E (Embodied Robotic WAiter load lifting with Large Language model)を紹介する。
我々は,このLCMを利用したシステムを物理ロボットに展開し,よりユーザフレンドリなインタフェースで指導誘導型把握タスクを実現する。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - Robotic Skill Acquisition via Instruction Augmentation with
Vision-Language Models [70.82705830137708]
言語条件制御のためのデータ駆動型インストラクション拡張(DIAL)について紹介する。
我々は,CLIPのセマンティック理解を利用したセミ言語ラベルを用いて,未知の実演データの大規模なデータセットに知識を伝達する。
DIALは、模倣学習ポリシーによって、新しい能力を獲得し、元のデータセットにない60の新しい命令を一般化することができる。
論文 参考訳(メタデータ) (2022-11-21T18:56:00Z) - Enhancing Interpretability and Interactivity in Robot Manipulation: A
Neurosymbolic Approach [0.0]
本稿では,言語誘導型視覚推論とロボット操作を結合したニューロシンボリックアーキテクチャを提案する。
非熟練の人間ユーザは、制約のない自然言語を用いてロボットに刺激を与え、参照表現(REF)、質問(VQA)、把握動作指示を提供する。
シミュレーション環境では,3次元視覚と言語によるテーブルトップシーンの合成データセットを作成し,我々のアプローチを訓練し,合成シーンと実世界のシーンの両方で広範な評価を行う。
論文 参考訳(メタデータ) (2022-10-03T12:21:45Z) - What Matters in Language Conditioned Robotic Imitation Learning [26.92329260907805]
オフラインのフリーフォーム模倣データセットから言語条件付きポリシーを学習する際の最も重要な課題について検討する。
本稿では,CALVINベンチマークを用いて,言語条件の難易度を向上する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T08:45:32Z) - Reshaping Robot Trajectories Using Natural Language Commands: A Study of
Multi-Modal Data Alignment Using Transformers [33.7939079214046]
我々は、人間とロボットのコラボレーションのための柔軟な言語ベースのインタフェースを提供する。
我々は、ユーザコマンドをエンコードする大規模言語モデルの分野における最近の進歩を生かしている。
言語コマンドによって修正されたロボット軌跡を含むデータセット上で、模倣学習を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2022-03-25T01:36:56Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。