論文の概要: Deep Movement Primitives: toward Breast Cancer Examination Robot
- arxiv url: http://arxiv.org/abs/2202.09265v1
- Date: Mon, 14 Feb 2022 15:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-27 21:06:59.555313
- Title: Deep Movement Primitives: toward Breast Cancer Examination Robot
- Title(参考訳): 深部運動プリミティブ : 乳癌検査ロボットを目指して
- Authors: Oluwatoyin Sanni, Giorgio Bonvicini, Muhammad Arshad Khan, Pablo C.
Lopez-Custodio, Kiyanoush Nazari, Amir M. Ghalamzan E.
- Abstract要約: 自律的な乳房触診を行うロボットシステムは、世界中の関連医療セクターに大きな影響を与える可能性がある。
本稿では,Deep Movement Primitivesと呼ばれる経路・軌道計画に対する新しいアプローチを提案する。
本研究は,乳房ファントムに手を伸ばして触診する実ロボット実験によるアプローチの有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breast cancer is the most common type of cancer worldwide. A robotic system
performing autonomous breast palpation can make a significant impact on the
related health sector worldwide. However, robot programming for breast
palpating with different geometries is very complex and unsolved. Robot
learning from demonstrations (LfD) reduces the programming time and cost.
However, the available LfD are lacking the modelling of the manipulation
path/trajectory as an explicit function of the visual sensory information. This
paper presents a novel approach to manipulation path/trajectory planning called
deep Movement Primitives that successfully generates the movements of a
manipulator to reach a breast phantom and perform the palpation. We show the
effectiveness of our approach by a series of real-robot experiments of reaching
and palpating a breast phantom. The experimental results indicate our approach
outperforms the state-of-the-art method.
- Abstract(参考訳): 乳がんは世界中で最も多い種類のがんである。
自律的な乳房触診を行うロボットシステムは、世界中の関連医療セクターに大きな影響を与える可能性がある。
しかし,胸部触診のためのロボットプログラミングは非常に複雑で未解決である。
デモ(lfd)からのロボット学習は、プログラミング時間とコストを削減する。
しかし、利用可能なLfDは、視覚感覚情報の明示的な機能として操作経路/軌道のモデル化を欠いている。
本稿では,乳房ファントムに到達し触診を行うマニピュレータの動作をうまく生成するディープムーブメントプリミティブと呼ばれる経路・軌道計画の操作法を提案する。
本研究は,乳房ファントムに手を伸ばして触診する実ロボット実験によるアプローチの有効性を示す。
実験の結果,本手法は最先端手法よりも優れていた。
関連論文リスト
- Naturalistic Robot Arm Trajectory Generation via Representation Learning [4.7682079066346565]
家庭環境におけるマニピュレータロボットの統合は、より予測可能な人間のようなロボットの動きの必要性を示唆している。
自然主義的な運動軌跡を生成する方法の1つは、人間のデモ隊の模倣によるものである。
本稿では,自己回帰型ニューラルネットワークを用いた自己指導型模倣学習法について検討する。
論文 参考訳(メタデータ) (2023-09-14T09:26:03Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Signs of Language: Embodied Sign Language Fingerspelling Acquisition
from Demonstrations for Human-Robot Interaction [1.0166477175169308]
本稿では,ビデオ例からデキスタスモータの模倣を学習する手法を提案する。
まず,関節に1つのアクチュエータを備えたロボットハンドのURDFモデルを構築した。
トレーニング済みのディープビジョンモデルを利用して、RGBビデオから手の3Dポーズを抽出する。
論文 参考訳(メタデータ) (2022-09-12T10:42:26Z) - Automatic Acquisition of a Repertoire of Diverse Grasping Trajectories
through Behavior Shaping and Novelty Search [0.0]
この問題を解決するために,多様な把握動作を生成する手法を提案する。
運動は、特定の対象位置に対するシミュレーションで生成される。
生成した動きが実際のバクスターロボットで実際に動作することを示すが、目的は、この手法を用いて大規模なデータセットを作成し、ディープラーニング手法をブートストラップすることである。
論文 参考訳(メタデータ) (2022-05-17T09:17:31Z) - Learning needle insertion from sample task executions [0.0]
ロボット手術のデータを簡単に記録でき、収集したデータを使ってタスクモデルを学ぶことができる。
3対のステレオカメラで記録された60の治験を含む針挿入データセットを提案する。
また,tの次段階におけるロボットの望ましい状態を予測する実験から,深部ロボット学習を提案する。
論文 参考訳(メタデータ) (2021-03-14T14:23:17Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。