論文の概要: Semi-autonomous Prosthesis Control Using Minimal Depth Information and
Vibrotactile Feedback
- arxiv url: http://arxiv.org/abs/2210.00541v1
- Date: Sun, 2 Oct 2022 14:51:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:53:53.507029
- Title: Semi-autonomous Prosthesis Control Using Minimal Depth Information and
Vibrotactile Feedback
- Title(参考訳): 最小深度情報と振動フィードバックを用いた半自律義手制御
- Authors: Miguel Nobre Castro and Strahinja Dosen
- Abstract要約: 最小限のデータを用いて対象オブジェクトの形状を再構成する新しい手法を提案する。
4つのコンカレントレーザースキャナラインは、オブジェクト断面の部分的な輪郭を提供する。
単純な幾何学は球形、円筒形、立方体の次元と向きを再構成するために用いられる。
- 参考スコア(独自算出の注目度): 2.0051855303186046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A semi-autonomous prosthesis control based on computer vision can be used to
improve performance while decreasing the cognitive burden, especially when
using advanced systems with multiple functions. However, a drawback of this
approach is that it relies on the complex processing of a significant amount of
data (e.g., a point cloud provided by a depth sensor), which can be a challenge
when deploying such a system onto an embedded prosthesis controller. In the
present study, therefore, we propose a novel method to reconstruct the shape of
the target object using minimal data. Specifically, four concurrent laser
scanner lines provide partial contours of the object cross-section. Simple
geometry is then used to reconstruct the dimensions and orientation of
spherical, cylindrical and cuboid objects. The prototype system was implemented
using depth sensor to simulate the scan lines and vibrotactile feedback to aid
the user during aiming of the laser towards the target object. The prototype
was tested on ten able-bodied volunteers who used the semi-autonomous
prosthesis to grasp a set of ten objects of different shape, size and
orientation. The novel prototype was compared against the benchmark system,
which used the full depth data. The results showed that novel system could be
used to successfully handle all the objects, and that the performance improved
with training, although it was still somewhat worse compared to the benchmark.
The present study is therefore an important step towards building a compact
system for embedded depth sensing specialized for prosthesis grasping.
- Abstract(参考訳): コンピュータビジョンに基づく半自律義肢制御は、認知的負担を軽減しつつ、特に複数の機能を持つ高度なシステムを使用する場合、パフォーマンスを向上させるために使用できる。
しかし、このアプローチの欠点は、大量のデータ(例えば深度センサーによって提供される点雲)の複雑な処理に依存しているため、そのようなシステムを組込み補綴器にデプロイする際の課題となる。
そこで本研究では,最小限のデータを用いて対象物の形状を再構築する手法を提案する。
具体的には、4つの同時レーザースキャナ線が対象断面の部分輪郭を提供する。
単純な幾何学は球形、円筒形、立方体の次元と向きを再構成するために用いられる。
プロトタイプシステムは,レーザーを目標対象物に向けて向ける際に,走査線をシミュレートするための深度センサと振動フィードバックを用いて実装された。
プロトタイプは、半自動義肢を使って異なる形状、大きさ、方向の10の物体のセットを把握した10名の有能なボランティアによってテストされた。
新型のプロトタイプは全深度データを用いたベンチマークシステムと比較された。
その結果、新しいシステムは全てのオブジェクトをうまく扱えるようになり、トレーニングによって性能が向上した。
そこで, 本研究は, 補綴把握に特化した埋め込み深度センシングシステムを構築するための重要なステップである。
関連論文リスト
- Zero123-6D: Zero-shot Novel View Synthesis for RGB Category-level 6D Pose Estimation [66.3814684757376]
本研究は,RGB 6Dのカテゴリレベルでのポーズ推定を向上するための拡散モデルに基づく新規ビュー合成器の実用性を示す最初の研究であるZero123-6Dを示す。
本手法は,データ要求の低減,ゼロショットカテゴリレベルの6Dポーズ推定タスクにおける深度情報の必要性の除去,およびCO3Dデータセットの実験により定量的に示された性能の向上を示す。
論文 参考訳(メタデータ) (2024-03-21T10:38:18Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - OReX: Object Reconstruction from Planar Cross-sections Using Neural
Fields [10.862993171454685]
OReXはスライス単独で3次元形状を復元する手法であり、前者がニューラルネットワーク勾配である。
適度なニューラルネットワークは入力平面上でトレーニングされ、与えられた3D座標の内外推定を返却し、滑らかさと自己相似性を誘導する強力な先行を与える。
我々は、粗大な訓練を奨励する反復的な推定アーキテクチャと階層的な入力サンプリングスキームを提供し、訓練プロセスは後段の高周波に集中できるようにする。
論文 参考訳(メタデータ) (2022-11-23T11:44:35Z) - Towards Confidence-guided Shape Completion for Robotic Applications [6.940242990198]
深層学習は、部分的な視覚データから完全な3Dオブジェクト表現を推測する効果的な方法として牽引され始めている。
本稿では,各再構成点に対する信頼度を示す暗黙の3次元表現に基づくオブジェクト形状完備化手法を提案する。
再構成された形状と地上の真実を比較し,ロボットの把握パイプラインに形状完了アルゴリズムを配置することにより,我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2022-09-09T13:48:24Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Combining Local and Global Pose Estimation for Precise Tracking of
Similar Objects [2.861848675707602]
類似・非テクスチャオブジェクトに対する多目的6D検出・追跡パイプラインを提案する。
合成画像のみを訓練した新しいネットワークアーキテクチャは、複数のオブジェクトの同時ポーズ推定を可能にする。
建設現場における実際のAR支援アプリケーションにおいて,システムがどのように利用できるかを示す。
論文 参考訳(メタデータ) (2022-01-31T14:36:57Z) - Learning suction graspability considering grasp quality and robot
reachability for bin-picking [4.317666242093779]
直感的な幾何学的解析に基づくグリップ品質評価指標を提案する。
さらに,到達可能性評価指標を取り入れた。
実験結果から,直感的に把握できる品質評価基準は,物理的に着想を得た指標と競合することがわかった。
論文 参考訳(メタデータ) (2021-11-04T00:55:42Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - 3D Human Body Reshaping with Anthropometric Modeling [59.51820187982793]
人間測定パラメータから正確で現実的な3D人体を再構築することは、個人識別、オンラインショッピング、仮想現実のための基本的な課題です。
このような3d形状を作る既存のアプローチは、レンジカメラやハイエンドスキャナーによる複雑な測定に苦しむことが多い。
本稿では,各ファセットに対する自動人為的パラメータモデリングを可能にする,特徴選択に基づく局所マッピング手法を提案する。
論文 参考訳(メタデータ) (2021-04-05T04:09:39Z) - EDN: Salient Object Detection via Extremely-Downsampled Network [66.38046176176017]
画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
論文 参考訳(メタデータ) (2020-12-24T04:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。