論文の概要: Autonomous Intraluminal Navigation of a Soft Robot using
Deep-Learning-based Visual Servoing
- arxiv url: http://arxiv.org/abs/2207.00401v1
- Date: Fri, 1 Jul 2022 13:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 12:41:53.030764
- Title: Autonomous Intraluminal Navigation of a Soft Robot using
Deep-Learning-based Visual Servoing
- Title(参考訳): 深層学習に基づくビジュアルサーボによるソフトロボットの自律内航法
- Authors: Jorge F. Lazo and Chun-Feng Lai and Sara Moccia and Benoit Rosa and
Michele Catellani and Michel de Mathelin and Giancarlo Ferrigno and Paul
Breedveld and Jenny Dankelman and Elena De Momi
- Abstract要約: そこで本研究では,3Dプリント型内視鏡ソフトロボットによる光内ナビゲーションのためのシナジーソリューションを提案する。
畳み込みニューラルネットワーク(CNN)に基づくビジュアルサーボは、自律的なナビゲーションタスクを達成するために使用される。
提案するロボットは、異なる経路構成の解剖学的ファントムで検証される。
- 参考スコア(独自算出の注目度): 13.268863900187025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Navigation inside luminal organs is an arduous task that requires
non-intuitive coordination between the movement of the operator's hand and the
information obtained from the endoscopic video. The development of tools to
automate certain tasks could alleviate the physical and mental load of doctors
during interventions, allowing them to focus on diagnosis and decision-making
tasks. In this paper, we present a synergic solution for intraluminal
navigation consisting of a 3D printed endoscopic soft robot that can move
safely inside luminal structures. Visual servoing, based on Convolutional
Neural Networks (CNNs) is used to achieve the autonomous navigation task. The
CNN is trained with phantoms and in-vivo data to segment the lumen, and a
model-less approach is presented to control the movement in constrained
environments. The proposed robot is validated in anatomical phantoms in
different path configurations. We analyze the movement of the robot using
different metrics such as task completion time, smoothness, error in the
steady-state, and mean and maximum error. We show that our method is suitable
to navigate safely in hollow environments and conditions which are different
than the ones the network was originally trained on.
- Abstract(参考訳): 光器官内のナビゲーションは、操作者の手の動きと内視鏡映像から得られる情報との間の非直感的な調整を必要とする困難な作業である。
特定のタスクを自動化するツールの開発は、介入中の医師の身体的および精神的負荷を軽減し、診断と意思決定タスクに集中できるようにする。
本稿では,3Dプリント型内視鏡ソフトロボットを用いて,構造内を安全に移動可能な光内航法システムを提案する。
自律的なナビゲーションタスクを実現するために、畳み込みニューラルネットワーク(cnns)に基づく視覚サーボが使用される。
cnnはファントムとin-vivoデータを使ってルーメンを分割し、制約のある環境での動きを制御するためのモデルレスアプローチが提示される。
提案するロボットは、異なる経路構成の解剖学的ファントムで検証される。
タスク完了時間,滑らかさ,定常状態における誤差,平均と最大誤差など,さまざまな指標を用いてロボットの動きを分析する。
本手法は,ネットワークが当初トレーニングしたものとは異なる中空環境や条件下において安全にナビゲートするのに適していることを示す。
関連論文リスト
- LPAC: Learnable Perception-Action-Communication Loops with Applications
to Coverage Control [80.86089324742024]
本稿では,その問題に対する学習可能なパーセプション・アクション・コミュニケーション(LPAC)アーキテクチャを提案する。
CNNは局所認識を処理する。グラフニューラルネットワーク(GNN)はロボットのコミュニケーションを促進する。
評価の結果,LPACモデルは標準分散型および集中型カバレッジ制御アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-01-10T00:08:00Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Collective Intelligence for 2D Push Manipulations with Mobile Robots [18.937030864563752]
異なるソフトボディ物理シミュレータからアテンションベースのニューラルネットワークにプランナーを蒸留することにより、我々のマルチロボットプッシュ操作システムはベースラインよりも優れた性能を実現する。
また、トレーニング中に見えない構成に一般化し、外乱や環境変化を適用したときにタスク完了に適応することができる。
論文 参考訳(メタデータ) (2022-11-28T08:48:58Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Autonomously Navigating a Surgical Tool Inside the Eye by Learning from
Demonstration [28.720332497794292]
本稿では,タスクの専門的なデモンストレーションを模倣する学習を通じて,ツールナビゲーションタスクを自動化することを提案する。
深層ネットワークは、ユーザが指定した目標に記録された視覚サーボに基づいて、網膜上の様々な場所に向かう専門家の軌跡を模倣するように訓練される。
このネットワークは, 物理実験では137ミクロン, シミュレーションでは94ミクロンの範囲内で, 針外科用具を様々な所へ確実に移動可能であることを示す。
論文 参考訳(メタデータ) (2020-11-16T08:30:02Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - A Spiking Neural Network Emulating the Structure of the Oculomotor
System Requires No Learning to Control a Biomimetic Robotic Head [0.0]
バイオミメティック・ロボットヘッドのプロトタイプの心臓にニューロモルフィック・オキュロモータ・コントローラが配置されている。
コントローラは、すべてのデータがスパイクニューラルネットワーク(SNN)によって符号化され、処理されるという意味でユニークなものです。
ロボットの目標追跡能力について報告し、その眼球運動学は人間の眼研究で報告されたものと類似していることを示し、生物学的に制約された学習を用いて、その性能をさらに向上させることができることを示す。
論文 参考訳(メタデータ) (2020-02-18T13:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。