論文の概要: SutureBot: A Precision Framework & Benchmark For Autonomous End-to-End Suturing
- arxiv url: http://arxiv.org/abs/2510.20965v1
- Date: Thu, 23 Oct 2025 19:50:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.306929
- Title: SutureBot: A Precision Framework & Benchmark For Autonomous End-to-End Suturing
- Title(参考訳): SutureBot: エンドツーエンドの自動化のための高精度フレームワークとベンチマーク
- Authors: Jesse Haworth, Juo-Tung Chen, Nigel Nelson, Ji Woong Kim, Masoud Moghani, Chelsea Finn, Axel Krieger,
- Abstract要約: 私たちは、da Vinci Research Kit(dVRK)の自律的な縫合ベンチマークであるSutureBotを紹介します。
再現性を確保するため、1,890個の縫合デモからなる高忠実度データセットを作成した。
そこで我々は,この課題をデクスタラスな模倣学習のベンチマークとして確立するために,最先端の視覚言語モデル(VLA)を評価する。
- 参考スコア(独自算出の注目度): 38.281346943455276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic suturing is a prototypical long-horizon dexterous manipulation task, requiring coordinated needle grasping, precise tissue penetration, and secure knot tying. Despite numerous efforts toward end-to-end autonomy, a fully autonomous suturing pipeline has yet to be demonstrated on physical hardware. We introduce SutureBot: an autonomous suturing benchmark on the da Vinci Research Kit (dVRK), spanning needle pickup, tissue insertion, and knot tying. To ensure repeatability, we release a high-fidelity dataset comprising 1,890 suturing demonstrations. Furthermore, we propose a goal-conditioned framework that explicitly optimizes insertion-point precision, improving targeting accuracy by 59\%-74\% over a task-only baseline. To establish this task as a benchmark for dexterous imitation learning, we evaluate state-of-the-art vision-language-action (VLA) models, including $\pi_0$, GR00T N1, OpenVLA-OFT, and multitask ACT, each augmented with a high-level task-prediction policy. Autonomous suturing is a key milestone toward achieving robotic autonomy in surgery. These contributions support reproducible evaluation and development of precision-focused, long-horizon dexterous manipulation policies necessary for end-to-end suturing. Dataset is available at: https://huggingface.co/datasets/jchen396/suturebot
- Abstract(参考訳): ロボット縫合(Robotic suturing)は、針を協調的に握り、組織を正確に浸透させ、結節を安全に結ぶことを必要とする、原型的な長い水平なデキスタラスな操作である。
エンドツーエンドの自律性への多くの取り組みにもかかわらず、完全に自律的な縫合パイプラインは物理ハードウェア上ではまだ実証されていない。
本稿では,da Vinci Research Kit(dVRK)の自律縫合ベンチマークであるSutureBotを紹介した。
再現性を確保するため、1,890個の縫合デモからなる高忠実度データセットを作成した。
さらに,挿入点精度を明示的に最適化し,タスクのみのベースライン上での目標精度を59\%-74\%向上する目標条件付きフレームワークを提案する。
このタスクをデクサラス模倣学習のベンチマークとして確立するために、高レベルタスク予測ポリシーで強化された、$\pi_0$, GR00T N1, OpenVLA-OFT, multitask ACTを含む最先端の視覚言語アクション(VLA)モデルを評価する。
自律的な縫合は、手術における自律性を達成するための重要なマイルストーンである。
これらの貢献は、エンド・ツー・エンド・ツー・エンド・サテューリングに必要な、精度を重視した長期的厳密な操作ポリシーの再現可能な評価と開発を支援する。
Dataset は以下の https://huggingface.co/datasets/jchen396/suturebot で利用可能である。
関連論文リスト
- OpenGVL - Benchmarking Visual Temporal Progress for Data Curation [2.0935101589828244]
データ不足は、ロボティクスの進歩を推し進める上で最も制限される要因の1つだ。
野生で利用可能なロボットデータの量は指数関数的に増えている。
信頼性の高い時間的タスク完了予測は、このデータを自動アノテートし、大規模にキュレートするのに役立ちます。
論文 参考訳(メタデータ) (2025-09-22T02:52:55Z) - RoboTwin 2.0: A Scalable Data Generator and Benchmark with Strong Domain Randomization for Robust Bimanual Robotic Manipulation [52.2244588424002]
我々は,多様かつ現実的なデータの自動生成のためのスケーラブルなフレームワークであるRoboTwin 2.0を紹介する。
コアとなるRoboTwin-ODは、セマンティックおよび操作関連アノテーションを備えた147カテゴリにわたる771インスタンスのオブジェクトライブラリである。
sim-to-real転送を改善するために、RoboTwin 2.0は5つの軸に沿って構造化された領域ランダム化を適用する。
論文 参考訳(メタデータ) (2025-06-22T16:26:53Z) - ForceVLA: Enhancing VLA Models with a Force-aware MoE for Contact-rich Manipulation [62.58034332427291]
ForceVLAは、新しいエンドツーエンド操作フレームワークである。
外部力センシングは、VLAシステム内の第一級のモダリティとして扱う。
論文 参考訳(メタデータ) (2025-05-28T09:24:25Z) - End-to-End Deep Learning for Real-Time Neuroimaging-Based Assessment of Bimanual Motor Skills [1.710146779965826]
本研究では,fNIRS信号を直接処理する新しいエンドツーエンドディープラーニングフレームワークを提案する。
平均分類精度は93.9%(SD 4.4)、一般化精度は92.6%(SD 1.9)である。
論文 参考訳(メタデータ) (2025-03-21T22:56:54Z) - Benchmarking Adaptive Intelligence and Computer Vision on Human-Robot Collaboration [0.0]
ヒューマンロボットコラボレーション(HRC)は、センサー、デジタル双生児、協調ロボット(コボット)、意図認識モデルを用いて、効率的な製造プロセスを持つ産業4.0において不可欠である。
本稿では,適応知能と自己ラベルを統合して,HRCシステムにおける意図認識のレジリエンスを向上させることにより,概念の漂流に対処する。
論文 参考訳(メタデータ) (2024-09-30T01:25:48Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - EmbodiedGPT: Vision-Language Pre-Training via Embodied Chain of Thought [95.37585041654535]
Embodied AIは、ロボットが物理的な環境で長時間のタスクを遂行するためのアクションシーケンスを計画し、実行することができる。
本稿では,EmbodiedGPTを紹介する。EmbodiedGPTは,エンボディドAIのためのエンドツーエンドのマルチモーダル基盤モデルである。
実験は、実施計画、実施制御、視覚的キャプション、視覚的質問応答など、実施されたタスクに対するEmbodiedGPTの有効性を示す。
論文 参考訳(メタデータ) (2023-05-24T11:04:30Z) - Learning needle insertion from sample task executions [0.0]
ロボット手術のデータを簡単に記録でき、収集したデータを使ってタスクモデルを学ぶことができる。
3対のステレオカメラで記録された60の治験を含む針挿入データセットを提案する。
また,tの次段階におけるロボットの望ましい状態を予測する実験から,深部ロボット学習を提案する。
論文 参考訳(メタデータ) (2021-03-14T14:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。