論文の概要: Autonomous task planning and situation awareness in robotic surgery
- arxiv url: http://arxiv.org/abs/2004.08911v1
- Date: Sun, 19 Apr 2020 17:08:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 00:31:54.329086
- Title: Autonomous task planning and situation awareness in robotic surgery
- Title(参考訳): ロボット手術における自律的タスク計画と状況認識
- Authors: Michele Ginesi and Daniele Meli and Andrea Roberti and Nicola
Sansonetto and Paolo Fiorini
- Abstract要約: このフレームワークは、応答セットプログラミングに基づくタスクレベル推論モジュール、動的運動プリミティブに基づく低レベル動作計画モジュール、状況認識モジュールから構成される。
このフレームワークは、標準的な手術訓練ペグ・アンド・リングタスクの異なるバージョンで検証される。
- 参考スコア(独自算出の注目度): 1.5224436211478214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of robots in minimally invasive surgery has improved the quality of
standard surgical procedures. So far, only the automation of simple surgical
actions has been investigated by researchers, while the execution of structured
tasks requiring reasoning on the environment and the choice among multiple
actions is still managed by human surgeons. In this paper, we propose a
framework to implement surgical task automation. The framework consists of a
task-level reasoning module based on answer set programming, a low-level motion
planning module based on dynamic movement primitives, and a situation awareness
module. The logic-based reasoning module generates explainable plans and is
able to recover from failure conditions, which are identified and explained by
the situation awareness module interfacing to a human supervisor, for enhanced
safety. Dynamic Movement Primitives allow to replicate the dexterity of
surgeons and to adapt to obstacles and changes in the environment. The
framework is validated on different versions of the standard surgical training
peg-and-ring task.
- Abstract(参考訳): 低侵襲手術におけるロボットの使用により,標準的な外科手術の質が向上した。
これまでのところ、簡単な外科的動作の自動化は研究者によって研究されているが、環境に対する推論と複数のアクションの選択を必要とする構造化されたタスクの実行は、まだ人間の外科医によって管理されている。
本稿では,手術作業の自動化を実現するための枠組みを提案する。
このフレームワークは、解集合プログラミングに基づくタスクレベルの推論モジュール、動的運動プリミティブに基づく低レベルモーションプランニングモジュール、状況認識モジュールで構成されている。
論理ベースの推論モジュールは、説明可能な計画を生成し、ヒューマンスーパーバイザと対面する状況認識モジュールによって識別され、説明される障害状態から回復し、安全性を高める。
ダイナミックムーブメントプリミティブ(dynamic movement primitives)は、外科医の器用さを再現し、障害や環境の変化に適応することができる。
このフレームワークは、標準的な外科訓練peg-and-ringタスクの異なるバージョンで検証される。
関連論文リスト
- Autonomous Behavior Planning For Humanoid Loco-manipulation Through Grounded Language Model [6.9268843428933025]
大規模言語モデル(LLM)は、意味情報の理解と処理のための強力な計画と推論能力を示している。
本稿では,ロボットが与えられたテキストによる指示の下で,自律的に動作や低レベル実行を計画できる新しい言語モデルベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-15T17:33:32Z) - A Meta-Engine Framework for Interleaved Task and Motion Planning using Topological Refinements [51.54559117314768]
タスク・アンド・モーション・プランニング(タスク・アンド・モーション・プランニング、TAMP)は、自動化された計画問題の解決策を見つけるための問題である。
本稿では,TAMP問題のモデル化とベンチマークを行うための,汎用的でオープンソースのフレームワークを提案する。
移動エージェントと複数のタスク状態依存障害を含むTAMP問題を解決する革新的なメタ技術を導入する。
論文 参考訳(メタデータ) (2024-08-11T14:57:57Z) - Deep Dive into Model-free Reinforcement Learning for Biological and Robotic Systems: Theory and Practice [17.598549532513122]
モデルフリー強化学習の数学的側面とアルゴリズム的側面を簡潔に表現する。
我々は,動物やロボットの行動に対するフィードバック制御のツールとして,テクスチタクタ・クリティカルな手法を用いた。
論文 参考訳(メタデータ) (2024-05-19T05:58:44Z) - ST(OR)2: Spatio-Temporal Object Level Reasoning for Activity Recognition
in the Operating Room [6.132617753806978]
ORにおける外科的活動認識のための新しい試料効率およびオブジェクトベースアプローチを提案する。
本手法は, 臨床医と手術器具の幾何学的配置に着目し, ORにおける重要な物体相互作用のダイナミクスを活用する。
論文 参考訳(メタデータ) (2023-12-19T15:33:57Z) - Autonomous Soft Tissue Retraction Using Demonstration-Guided
Reinforcement Learning [6.80186731352488]
既存の外科的課題学習は、主に剛体相互作用に関係している。
より高度な手術ロボットへの進歩は、軟体手術を必要とする。
この研究は、硬組織と軟組織の両方の相互作用を管理することができる外科用ロボットの開発と改良に関する将来の研究の基礎を築いた。
論文 参考訳(メタデータ) (2023-09-02T06:13:58Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Optimal task and motion planning and execution for human-robot
multi-agent systems in dynamic environments [54.39292848359306]
本稿では,タスクのシーケンシング,割り当て,実行を最適化するタスクと動作計画の組み合わせを提案する。
このフレームワークはタスクとアクションの分離に依存しており、アクションはシンボル的タスクの幾何学的実現の可能な1つの可能性である。
ロボットアームと人間の作業員がモザイクを組み立てる共同製造シナリオにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-03-27T01:50:45Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - Thinking While Moving: Deep Reinforcement Learning with Concurrent
Control [122.49572467292293]
本研究では,制御システムの時間的進化とともに,ポリシーからのアクションのサンプリングを同時に行わなければならないような環境下での強化学習について検討する。
人や動物のように、ロボットは思考と移動を同時に行わなければならず、前の動作が完了する前に次の動作を決定する。
論文 参考訳(メタデータ) (2020-04-13T17:49:29Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。