論文の概要: PROSKILL: A formal skill language for acting in robotics
- arxiv url: http://arxiv.org/abs/2403.07770v1
- Date: Tue, 12 Mar 2024 15:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 20:54:40.137868
- Title: PROSKILL: A formal skill language for acting in robotics
- Title(参考訳): PROSKILL:ロボット工学におけるフォーマルなスキル言語
- Authors: F\'elix Ingrand (LAAS-CNRS, Universit\'e de Toulouse, Toulouse,
France)
- Abstract要約: 自律ロボットにとって行動は重要な決定機能である。
演技スキルをプログラムする新しい言語を提案する。
この言語は、オフラインでプロパティをチェックしたり、スキルを実行するのに使える形式モデルに自由にマッピングします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Acting is an important decisional function for autonomous robots. Acting
relies on skills to implement and to model the activities it oversees:
refinement, local recovery, temporal dispatching, external asynchronous events,
and commands execution, all done online. While sitting between planning and the
robotic platform, acting often relies on programming primitives and an
interpreter which executes these skills. Following our experience in providing
a formal framework to program the functional components of our robots, we
propose a new language, to program the acting skills. This language maps
unequivocally into a formal model which can then be used to check properties
offline or execute the skills, or more precisely their formal equivalent, and
perform runtime verification. We illustrate with a real example how we can
program a survey mission for a drone in this new language, prove some formal
properties on the program and directly execute the formal model on the drone to
perform the mission.
- Abstract(参考訳): 行動は自律ロボットにとって重要な決定機能である。
Actingは、リファインメント、ローカルリカバリ、一時的なディスパッチ、外部非同期イベント、コマンド実行など、その監視するアクティビティの実装とモデル化のスキルに依存している。
計画とロボットプラットフォームの間に座っている間、アクションはしばしばプログラミングプリミティブとこれらのスキルを実行するインタプリタに依存します。
ロボットの機能的コンポーネントをプログラムするための形式的フレームワークを提供する経験から,行動スキルをプログラムするための新しい言語を提案する。
この言語は、オフラインでプロパティをチェックしたり、スキルを実行したり、あるいはより正確には彼らの公式な等価性を確認し、実行時の検証を行うために使用することができる。
この新言語でドローンの探査ミッションをプログラムし、プログラム上のいくつかの形式的特性を証明し、そのミッションを実行するためにドローン上で正式なモデルを直接実行する方法を実例で説明する。
関連論文リスト
- RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic
Control [140.48218261864153]
本研究では,インターネット規模のデータに基づいて学習した視覚言語モデルを,エンドツーエンドのロボット制御に直接組み込む方法について検討する。
提案手法は,インターネット規模のトレーニングから,RT-2による創発的能力の獲得を可能にした。
論文 参考訳(メタデータ) (2023-07-28T21:18:02Z) - Surfer: Progressive Reasoning with World Models for Robotic Manipulation [51.26109827779267]
本稿では,新しいシンプルなロボット操作フレームワークであるSurferを紹介する。
Surferは、ロボット操作を視覚シーンの状態伝達として扱い、それをアクションとシーンという2つの部分に分割する。
これは世界モデルに基づいており、ロボット操作を視覚シーンの状態伝達として扱い、アクションとシーンの2つの部分に分けられる。
論文 参考訳(メタデータ) (2023-06-20T07:06:04Z) - Instruct2Act: Mapping Multi-modality Instructions to Robotic Actions
with Large Language Model [63.66204449776262]
Instruct2Actは、ロボット操作タスクのシーケンシャルアクションにマルチモーダル命令をマッピングするフレームワークである。
我々のアプローチは、様々な命令のモダリティや入力タイプを調節する上で、調整可能で柔軟なものである。
我々のゼロショット法は、いくつかのタスクにおいて、最先端の学習ベースのポリシーよりも優れていた。
論文 参考訳(メタデータ) (2023-05-18T17:59:49Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - Learning Flexible Translation between Robot Actions and Language
Descriptions [16.538887534958555]
本稿では,ロボット動作と言語記述とのフレキシブルな変換のためのペアゲートオートエンコーダ(PGAE)を提案する。
我々は、各アクションを、翻訳方向に関する信号を含む適切な記述とペアリングすることで、エンド・ツー・エンドでモデルを訓練する。
事前訓練された言語モデルを言語エンコーダとして使用するオプションにより、我々のモデルは目に見えない自然言語入力を認識することができる。
論文 参考訳(メタデータ) (2022-07-15T12:37:05Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Summarizing a virtual robot's past actions in natural language [0.3553493344868413]
本稿では,ロボット行動と自然言語記述とを一致させた一般的なデータセットを,ロボット行動要約作業のトレーニング場として活用する方法について述べる。
自動プランナーが使用する動作の中間テキスト表現や、ロボットの自我中心の映像フレームから、このような要約を生成するためのいくつかの方法を提案し、テストする。
論文 参考訳(メタデータ) (2022-03-13T15:00:46Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Translating Natural Language Instructions to Computer Programs for Robot
Manipulation [0.6629765271909505]
自然言語命令をPython関数に翻訳し、オブジェクト検出器の出力にアクセスしてシーンをクエリすることを提案する。
提案手法は,ロボットの動作を直接予測するニューラルネットワークの訓練よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-26T07:57:55Z) - Exploratory Experiments on Programming Autonomous Robots in Jadescript [0.0]
本稿ではエージェント指向プログラミング言語を用いた自律型ロボットのプログラミングの可能性を検証する実験について述べる。
エージェント指向プログラミングパラダイムは、イベントの処理やアクチュエータのコマンドに言語レベルの抽象化を提供するため、関連性がある。
Jadescriptと呼ばれる最近のエージェント指向プログラミング言語は、イベントを処理するために特別に設計された新機能とともに、この論文で紹介されている。
論文 参考訳(メタデータ) (2020-07-23T01:31:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。