論文の概要: Deep Movement Primitives: toward Breast Cancer Examination Robot
- arxiv url: http://arxiv.org/abs/2202.09265v1
- Date: Mon, 14 Feb 2022 15:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-27 21:06:59.555313
- Title: Deep Movement Primitives: toward Breast Cancer Examination Robot
- Title(参考訳): 深部運動プリミティブ : 乳癌検査ロボットを目指して
- Authors: Oluwatoyin Sanni, Giorgio Bonvicini, Muhammad Arshad Khan, Pablo C.
Lopez-Custodio, Kiyanoush Nazari, Amir M. Ghalamzan E.
- Abstract要約: 自律的な乳房触診を行うロボットシステムは、世界中の関連医療セクターに大きな影響を与える可能性がある。
本稿では,Deep Movement Primitivesと呼ばれる経路・軌道計画に対する新しいアプローチを提案する。
本研究は,乳房ファントムに手を伸ばして触診する実ロボット実験によるアプローチの有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breast cancer is the most common type of cancer worldwide. A robotic system
performing autonomous breast palpation can make a significant impact on the
related health sector worldwide. However, robot programming for breast
palpating with different geometries is very complex and unsolved. Robot
learning from demonstrations (LfD) reduces the programming time and cost.
However, the available LfD are lacking the modelling of the manipulation
path/trajectory as an explicit function of the visual sensory information. This
paper presents a novel approach to manipulation path/trajectory planning called
deep Movement Primitives that successfully generates the movements of a
manipulator to reach a breast phantom and perform the palpation. We show the
effectiveness of our approach by a series of real-robot experiments of reaching
and palpating a breast phantom. The experimental results indicate our approach
outperforms the state-of-the-art method.
- Abstract(参考訳): 乳がんは世界中で最も多い種類のがんである。
自律的な乳房触診を行うロボットシステムは、世界中の関連医療セクターに大きな影響を与える可能性がある。
しかし,胸部触診のためのロボットプログラミングは非常に複雑で未解決である。
デモ(lfd)からのロボット学習は、プログラミング時間とコストを削減する。
しかし、利用可能なLfDは、視覚感覚情報の明示的な機能として操作経路/軌道のモデル化を欠いている。
本稿では,乳房ファントムに到達し触診を行うマニピュレータの動作をうまく生成するディープムーブメントプリミティブと呼ばれる経路・軌道計画の操作法を提案する。
本研究は,乳房ファントムに手を伸ばして触診する実ロボット実験によるアプローチの有効性を示す。
実験の結果,本手法は最先端手法よりも優れていた。
関連論文リスト
- Robot See Robot Do: Imitating Articulated Object Manipulation with Monocular 4D Reconstruction [51.49400490437258]
本研究は,1つの単分子RGB人間の実演から音声による物体操作を模倣する手法を開発した。
まず,モノクロ映像から3次元部分運動を復元する4次元微分可能部品モデル(4D-DPM)を提案する。
この4D再構成を前提として、ロボットは物体の軌道を再現し、両腕の動きを計画し、実証された物体部分の動きを誘導する。
両用するYuMiロボットを用いて,4D-DPMの3D追跡精度を実写3D部分軌跡に基づいて評価し,9つのオブジェクトに対してRSRDの物理的実行性能を評価した。
論文 参考訳(メタデータ) (2024-09-26T17:57:16Z) - Unsupervised Learning of Effective Actions in Robotics [0.9374652839580183]
ロボット工学における現在の最先端のアクション表現は、ロボットのアクションに対する適切な効果駆動学習を欠いている。
連続運動空間の離散化と「アクションプロトタイプ」生成のための教師なしアルゴリズムを提案する。
シミュレーションされた階段登上補強学習課題について,本手法の評価を行った。
論文 参考訳(メタデータ) (2024-04-03T13:28:52Z) - Naturalistic Robot Arm Trajectory Generation via Representation Learning [4.7682079066346565]
家庭環境におけるマニピュレータロボットの統合は、より予測可能な人間のようなロボットの動きの必要性を示唆している。
自然主義的な運動軌跡を生成する方法の1つは、人間のデモ隊の模倣によるものである。
本稿では,自己回帰型ニューラルネットワークを用いた自己指導型模倣学習法について検討する。
論文 参考訳(メタデータ) (2023-09-14T09:26:03Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - Signs of Language: Embodied Sign Language Fingerspelling Acquisition
from Demonstrations for Human-Robot Interaction [1.0166477175169308]
本稿では,ビデオ例からデキスタスモータの模倣を学習する手法を提案する。
まず,関節に1つのアクチュエータを備えたロボットハンドのURDFモデルを構築した。
トレーニング済みのディープビジョンモデルを利用して、RGBビデオから手の3Dポーズを抽出する。
論文 参考訳(メタデータ) (2022-09-12T10:42:26Z) - Automatic Acquisition of a Repertoire of Diverse Grasping Trajectories
through Behavior Shaping and Novelty Search [0.0]
この問題を解決するために,多様な把握動作を生成する手法を提案する。
運動は、特定の対象位置に対するシミュレーションで生成される。
生成した動きが実際のバクスターロボットで実際に動作することを示すが、目的は、この手法を用いて大規模なデータセットを作成し、ディープラーニング手法をブートストラップすることである。
論文 参考訳(メタデータ) (2022-05-17T09:17:31Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。