論文の概要: From Hand-Perspective Visual Information to Grasp Type Probabilities:
Deep Learning via Ranking Labels
- arxiv url: http://arxiv.org/abs/2103.04863v1
- Date: Mon, 8 Mar 2021 16:12:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 16:01:57.887898
- Title: From Hand-Perspective Visual Information to Grasp Type Probabilities:
Deep Learning via Ranking Labels
- Title(参考訳): 手視点視覚情報からグラフ型確率へ:ランキングラベルによる深層学習
- Authors: Mo Han, Sezen Ya{\u{g}}mur G\"unay, \.Ilkay Y{\i}ld{\i}z, Paolo
Bonato, Cagdas D. Onal, Ta\c{s}k{\i}n Pad{\i}r, Gunar Schirner, Deniz
Erdo{\u{g}}mu\c{s}
- Abstract要約: Plackett-Luceモデルに基づいた新しい確率分類器を構築し、把握上の確率分布を予測する。
提案モデルは,最もポピュラーで生産性の高い畳み込みニューラルネットワークフレームワークに適用可能であることを示す。
- 参考スコア(独自算出の注目度): 6.772076545800592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Limb deficiency severely affects the daily lives of amputees and drives
efforts to provide functional robotic prosthetic hands to compensate this
deprivation. Convolutional neural network-based computer vision control of the
prosthetic hand has received increased attention as a method to replace or
complement physiological signals due to its reliability by training visual
information to predict the hand gesture. Mounting a camera into the palm of a
prosthetic hand is proved to be a promising approach to collect visual data.
However, the grasp type labelled from the eye and hand perspective may differ
as object shapes are not always symmetric. Thus, to represent this difference
in a realistic way, we employed a dataset containing synchronous images from
eye- and hand- view, where the hand-perspective images are used for training
while the eye-view images are only for manual labelling. Electromyogram (EMG)
activity and movement kinematics data from the upper arm are also collected for
multi-modal information fusion in future work. Moreover, in order to include
human-in-the-loop control and combine the computer vision with physiological
signal inputs, instead of making absolute positive or negative predictions, we
build a novel probabilistic classifier according to the Plackett-Luce model. To
predict the probability distribution over grasps, we exploit the statistical
model over label rankings to solve the permutation domain problems via a
maximum likelihood estimation, utilizing the manually ranked lists of grasps as
a new form of label. We indicate that the proposed model is applicable to the
most popular and productive convolutional neural network frameworks.
- Abstract(参考訳): 肢欠損は両足の日常生活に深刻な影響を与え、この不足を補うために機能的なロボット義手を提供する努力を駆り立てている。
人工手の畳み込み型ニューラルネットワークによるコンピュータビジョン制御は,手の動きを予測するために視覚情報を訓練することにより,その信頼性から生理的信号を置き換えたり補ったりする方法として注目されている。
義手の手のひらにカメラを装着することは、視覚データを収集するための有望なアプローチであることが証明されている。
ただし、物体形状が常に対称ではないため、目や手の視点から表示された把握タイプが異なる場合があります。
そこで我々は,この違いを現実的に表現するために,目視画像と手視画像の同期画像を含むデータセットを用いて,手視画像が手動ラベリングにのみ使用されるようにした。
エレクトロミオグラム(EMG)活性と上腕からの運動キネマティクスデータを収集し、将来的な作業における多モード情報融合を行う。
さらに、人間のループ制御を組み込んで、コンピュータビジョンと生理的信号入力を組み合わせるために、絶対的な正あるいは負の予測を行う代わりに、プラケット・ルーシモデルに基づく新しい確率的分類器を構築する。
そこで我々は,手動でランク付けしたグリップのリストをラベルの新たな形式として利用して,ラベルランキングよりも統計モデルを用いて最大推定値を用いて置換領域の問題を解く。
提案モデルは,最もポピュラーで生産性の高い畳み込みニューラルネットワークフレームワークに適用可能であることを示す。
関連論文リスト
- Predicting Stroke through Retinal Graphs and Multimodal Self-supervised Learning [0.46835339362676565]
脳卒中の早期発見は介入に不可欠であり、信頼できるモデルを必要とする。
臨床情報とともに効率的な網膜像表現法を提案し,心血管の健康状態の包括的把握を試みた。
論文 参考訳(メタデータ) (2024-11-08T14:40:56Z) - Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Transductive Linear Probing: A Novel Framework for Few-Shot Node
Classification [56.17097897754628]
自己教師付きグラフと対照的な事前学習による帰納的線形探索は、同じプロトコル下での最先端の完全教師付きメタラーニング手法より優れていることを示す。
この研究が、数ショットのノード分類問題に新たな光を当て、グラフ上のわずかにラベル付けされたインスタンスから学ぶことの今後の研究を促進することを願っている。
論文 参考訳(メタデータ) (2022-12-11T21:10:34Z) - Graph Neural Networks with Trainable Adjacency Matrices for Fault
Diagnosis on Multivariate Sensor Data [69.25738064847175]
各センサの信号の挙動を別々に検討し,相互の相関関係と隠れ関係を考慮する必要がある。
グラフノードは、異なるセンサーからのデータとして表現することができ、エッジは、これらのデータの影響を互いに表示することができる。
グラフニューラルネットワークのトレーニング中にグラフを構築する方法が提案されている。これにより、センサー間の依存関係が事前に分かっていないデータ上でモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-10-20T11:03:21Z) - Grasp Pre-shape Selection by Synthetic Training: Eye-in-hand Shared
Control on the Hannes Prosthesis [6.517935794312337]
RGB 配列から手形前分類を行うための目印学習方式を提案する。
我々は、人間の腕の軌跡のモデルを用いて、眼球設定の特異性に取り組む。
論文 参考訳(メタデータ) (2022-03-18T09:16:48Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - HANDS: A Multimodal Dataset for Modeling Towards Human Grasp Intent
Inference in Prosthetic Hands [3.7886097009023376]
未来の高度な義手は、ロボットハンドと人間のユーザーとの共有制御の改善の恩恵を受けると予想されている。
マルチモーダルセンサーデータには、視覚を含む様々な環境センサーと、人間の生理と行動センサーが含まれる。
環境状態と人間の意図推定のための融合手法は、これらの証拠の源を組み合わせることで、義手の動き計画と制御を支援する。
論文 参考訳(メタデータ) (2021-03-08T15:51:03Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Towards Creating a Deployable Grasp Type Probability Estimator for a
Prosthetic Hand [11.008123712007402]
InceptionV3は0.95角類似度で最高精度を達成し、1.4 MobileNetV2は0.93で動作量は20%である。
我々の研究は、機械学習とコンピュータビジョンによるEMGインテント推論を物理的状態の確率で拡張することを可能にする。
論文 参考訳(メタデータ) (2021-01-13T21:39:41Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。