論文の概要: General-purpose foundation models for increased autonomy in
robot-assisted surgery
- arxiv url: http://arxiv.org/abs/2401.00678v1
- Date: Mon, 1 Jan 2024 06:15:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 16:20:07.059654
- Title: General-purpose foundation models for increased autonomy in
robot-assisted surgery
- Title(参考訳): ロボット支援手術における自律性向上のための汎用基礎モデル
- Authors: Samuel Schmidgall, Ji Woong Kim, Alan Kuntz, Ahmed Ezzat Ghazi, Axel
Krieger
- Abstract要約: 本稿では,ロボット支援手術における自律性向上を目指す。
手術ロボットは汎用モデルの利点を享受し,ロボット支援手術における自律性向上に向けた3つの指針を提供する。
- 参考スコア(独自算出の注目度): 4.155479231940454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dominant paradigm for end-to-end robot learning focuses on optimizing
task-specific objectives that solve a single robotic problem such as picking up
an object or reaching a target position. However, recent work on high-capacity
models in robotics has shown promise toward being trained on large collections
of diverse and task-agnostic datasets of video demonstrations. These models
have shown impressive levels of generalization to unseen circumstances,
especially as the amount of data and the model complexity scale. Surgical robot
systems that learn from data have struggled to advance as quickly as other
fields of robot learning for a few reasons: (1) there is a lack of existing
large-scale open-source data to train models, (2) it is challenging to model
the soft-body deformations that these robots work with during surgery because
simulation cannot match the physical and visual complexity of biological
tissue, and (3) surgical robots risk harming patients when tested in clinical
trials and require more extensive safety measures. This perspective article
aims to provide a path toward increasing robot autonomy in robot-assisted
surgery through the development of a multi-modal, multi-task,
vision-language-action model for surgical robots. Ultimately, we argue that
surgical robots are uniquely positioned to benefit from general-purpose models
and provide three guiding actions toward increased autonomy in robot-assisted
surgery.
- Abstract(参考訳): エンドツーエンドのロボット学習における支配的なパラダイムは、物体の拾い上げや目標位置の到達といった単一のロボット問題を解決するタスク固有の目的を最適化することに焦点を当てている。
しかし、最近のロボット工学における高容量モデルの研究は、ビデオデモの多様なタスクに依存しないデータセットの大規模なコレクションでトレーニングされることを約束している。
これらのモデルは、特にデータ量やモデルの複雑さのスケールなど、目に見えない状況に対する印象深い一般化レベルを示している。
Surgical robot systems that learn from data have struggled to advance as quickly as other fields of robot learning for a few reasons: (1) there is a lack of existing large-scale open-source data to train models, (2) it is challenging to model the soft-body deformations that these robots work with during surgery because simulation cannot match the physical and visual complexity of biological tissue, and (3) surgical robots risk harming patients when tested in clinical trials and require more extensive safety measures.
本稿では,多目的・多目的・多言語対応型手術ロボットの開発を通じて,ロボット支援手術における自律性向上を目指す。
最終的には,手術ロボットは汎用モデルの利点を享受し,ロボット支援手術における自律性向上に向けての3つの指針を提供する。
関連論文リスト
- Semantically Controllable Augmentations for Generalizable Robot Learning [40.89398799604755]
ロボット操作の現実に見えないシナリオへの一般化には、トレーニング中にさまざまなデータセットを公開する必要がある。
本稿では,意味制御可能な拡張とロボットデータセットの高速乗算のための生成的拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-02T05:25:34Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - Formal Modelling for Multi-Robot Systems Under Uncertainty [11.21074891465253]
我々は不確実性下でのマルチロボットシステムのフォーマリズムのモデル化についてレビューする。
計画、強化学習、モデルチェック、シミュレーションにどのように使用できるかについて議論する。
論文 参考訳(メタデータ) (2023-05-26T15:23:35Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - PACT: Perception-Action Causal Transformer for Autoregressive Robotics
Pre-Training [25.50131893785007]
本研究は,ロボットにおける複数のタスクの出発点として機能する汎用表現を事前学習するためのパラダイムを導入する。
本稿では,ロボットデータから直接表現を自己管理的に構築することを目的として,PACT(Perception-Action Causal Transformer)を提案する。
より大規模な事前学習モデル上に小さなタスク特化ネットワークを微調整すると、同時に1つのモデルをスクラッチからトレーニングするのに比べ、性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-09-22T16:20:17Z) - A Capability and Skill Model for Heterogeneous Autonomous Robots [69.50862982117127]
機能モデリングは、異なるマシンが提供する機能を意味的にモデル化するための有望なアプローチと考えられている。
この貢献は、製造から自律ロボットの分野への能力モデルの適用と拡張の仕方について考察する。
論文 参考訳(メタデータ) (2022-09-22T10:13:55Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Learning needle insertion from sample task executions [0.0]
ロボット手術のデータを簡単に記録でき、収集したデータを使ってタスクモデルを学ぶことができる。
3対のステレオカメラで記録された60の治験を含む針挿入データセットを提案する。
また,tの次段階におけるロボットの望ましい状態を予測する実験から,深部ロボット学習を提案する。
論文 参考訳(メタデータ) (2021-03-14T14:23:17Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。