論文の概要: Learning needle insertion from sample task executions
- arxiv url: http://arxiv.org/abs/2103.07938v1
- Date: Sun, 14 Mar 2021 14:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 04:54:27.501807
- Title: Learning needle insertion from sample task executions
- Title(参考訳): サンプルタスク実行から針挿入を学ぶ
- Authors: Amir Ghalamzan-E
- Abstract要約: ロボット手術のデータを簡単に記録でき、収集したデータを使ってタスクモデルを学ぶことができる。
3対のステレオカメラで記録された60の治験を含む針挿入データセットを提案する。
また,tの次段階におけるロボットの望ましい状態を予測する実験から,深部ロボット学習を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automating a robotic task, e.g., robotic suturing can be very complex and
time-consuming. Learning a task model to autonomously perform the task is
invaluable making the technology, robotic surgery, accessible for a wider
community. The data of robotic surgery can be easily logged where the collected
data can be used to learn task models. This will result in reduced time and
cost of robotic surgery in which a surgeon can supervise the robot operation or
give high-level commands instead of low-level control of the tools. We present
a data-set of needle insertion in soft tissue with two arms where Arm 1 inserts
the needle into the tissue and Arm 2 actively manipulate the soft tissue to
ensure the desired and actual exit points are the same. This is important in
real-surgery because suturing without active manipulation of tissue may yield
failure of the suturing as the stitch may not grip enough tissue to resist the
force applied for the suturing. We present a needle insertion dataset including
60 successful trials recorded by 3 pair of stereo cameras. Moreover, we present
Deep-robot Learning from Demonstrations that predicts the desired state of the
robot at the time step after t (which the optimal action taken at t yields) by
looking at the video of the past time steps, i.e. n step time history where N
is the memory time window, of the task execution. The experimental results
illustrate our proposed deep model architecture is outperforming the existing
methods. Although the solution is not yet ready to be deployed on a real robot,
the results indicate the possibility of future development for real robot
deployment.
- Abstract(参考訳): ロボット作業、例えばロボット縫合の自動化は非常に複雑で時間がかかる。
自律的にタスクを実行するためのタスクモデルを学ぶことは、技術、ロボット手術、より広いコミュニティのためにアクセス可能にする貴重なことです。
ロボット手術のデータを簡単に記録でき、収集したデータを使ってタスクモデルを学ぶことができる。
これにより、外科医がロボット操作を監督したり、ツールの低レベル制御の代わりに高レベルのコマンドを与えることができるロボット手術の時間とコストが削減されます。
腕1が軟組織に針を挿入し、腕2が軟組織を積極的に操作し、所望の出口と実際の出口が同一であることを保証する2本の腕を持つ軟組織に針を挿入するデータセットを提案する。
これは、組織をアクティブに操作することなく縫合することは縫合に失敗する可能性があるため、縫合が縫合に適用される力に耐えるだけの十分な組織を縫合することが出来ないため、実際の手術において重要である。
3対のステレオカメラで記録された60の治験を含む針挿入データセットを提案する。
さらに, t 以降の段階でロボットの望ましい状態を予測するDeep-Robot Learning from Demonstrations(デモからの深層ロボット学習)を, 過去のステップのビデオ(すなわち, t での最適動作)から見て紹介する。
n ステップタイム履歴 N はタスクの実行のメモリタイムウィンドウです。
実験結果は,提案する深層モデルアーキテクチャが既存手法を上回っていることを示す。
ソリューションはまだ実際のロボットにデプロイする準備が整っていないが、結果は実際のロボットを展開するための将来の開発の可能性を示している。
関連論文リスト
- General-purpose foundation models for increased autonomy in
robot-assisted surgery [4.155479231940454]
本稿では,ロボット支援手術における自律性向上を目指す。
手術ロボットは汎用モデルの利点を享受し,ロボット支援手術における自律性向上に向けた3つの指針を提供する。
論文 参考訳(メタデータ) (2024-01-01T06:15:16Z) - Autonomous Soft Tissue Retraction Using Demonstration-Guided
Reinforcement Learning [6.80186731352488]
既存の外科的課題学習は、主に剛体相互作用に関係している。
より高度な手術ロボットへの進歩は、軟体手術を必要とする。
この研究は、硬組織と軟組織の両方の相互作用を管理することができる外科用ロボットの開発と改良に関する将来の研究の基礎を築いた。
論文 参考訳(メタデータ) (2023-09-02T06:13:58Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Using Conditional Generative Adversarial Networks to Reduce the Effects
of Latency in Robotic Telesurgery [0.0]
手術では、どんなマイクロ遅延でも重傷を負い、場合によっては致命傷を負うことがある。
現在の外科用ロボットは、腕や道具の位置を測定するために校正されたセンサーを使用している。
本研究は、患者の組織に関するツール位置を測定するための、純粋に光学的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-07T13:40:44Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Recurrent and Spiking Modeling of Sparse Surgical Kinematics [0.8458020117487898]
ますます多くの研究が、手術ロボットが捉えたビデオやキネマティックなデータを機械学習で分析している。
本研究では,同様のスキルレベルの外科医を予測するために,キネマティックデータのみを用いることの可能性を検討する。
本報告では, 運動特性のみに基づいて, シミュレーションエクササイズにおいて, ほぼ完全スコアの手術者を特定することが可能である。
論文 参考訳(メタデータ) (2020-05-12T15:41:45Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。