論文の概要: Quantitative analysis of robot gesticulation behavior
- arxiv url: http://arxiv.org/abs/2010.11614v1
- Date: Thu, 22 Oct 2020 11:17:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:11:42.356213
- Title: Quantitative analysis of robot gesticulation behavior
- Title(参考訳): ロボットのジェスチレーション行動の定量的解析
- Authors: Unai Zabala, Igor Rodriguez, Jos\'e Mar\'ia Mart\'inez-Otzeta, Itziar
Irigoien, Elena Lazkano
- Abstract要約: 本研究の目的は、元のトレーニングデータに対する忠実度などの特性を測定することであるが、同時に生成したジェスチャーの独創性の度合いを追跡することである。
ジェスチャーにFr'echet Inception Distanceを適用することで、新しいFr'echet Gesture Distanceを提案する。
- 参考スコア(独自算出の注目度): 2.9048924265579124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social robot capabilities, such as talking gestures, are best produced using
data driven approaches to avoid being repetitive and to show trustworthiness.
However, there is a lack of robust quantitative methods that allow to compare
such methods beyond visual evaluation. In this paper a quantitative analysis is
performed that compares two Generative Adversarial Networks based gesture
generation approaches. The aim is to measure characteristics such as fidelity
to the original training data, but at the same time keep track of the degree of
originality of the produced gestures. Principal Coordinate Analysis and
procrustes statistics are performed and a new Fr\'echet Gesture Distance is
proposed by adapting the Fr\'echet Inception Distance to gestures. These three
techniques are taken together to asses the fidelity/originality of the
generated gestures.
- Abstract(参考訳): チャットジェスチャのようなソーシャルロボットの能力は、反復を避け、信頼性を示すためにデータ駆動のアプローチを使って最もよく生成される。
しかし、視覚的な評価以上の方法で比較できる堅牢な定量的手法が欠如している。
本稿では,2つの生成型逆ネットワークを用いたジェスチャ生成手法を比較した定量的解析を行う。
本来のトレーニングデータに対する忠実度などの特性を測定することを目的としているが、同時に生成したジェスチャーの独創性の度合いを追跡する。
主コーディネート分析とプロクリスト統計を行い、ジェスチャーにFr'echet Inception Distanceを適用することにより、新しいFr'echet Gesture Distanceを提案する。
これら3つの技法は、生成したジェスチャーの忠実さ/独創性を評価する。
関連論文リスト
- Wearable Sensor-Based Few-Shot Continual Learning on Hand Gestures for Motor-Impaired Individuals via Latent Embedding Exploitation [6.782362178252351]
本稿では,リプレイベースのFew-Shot連続学習フレームワークにおいて,Latent Embedding Exploitation (LEE) 機構を導入する。
本手法は,ジェスチャー先行知識として知られる保存された潜伏埋め込みを利用して,多様な潜伏特徴空間を生成する。
本手法は、運動障害者がウェアラブルデバイスを活用するのに役立ち、そのユニークな動作スタイルを学習し応用することができる。
論文 参考訳(メタデータ) (2024-05-14T21:20:27Z) - AQ-GT: a Temporally Aligned and Quantized GRU-Transformer for Co-Speech
Gesture Synthesis [0.0]
本稿では,量子化パイプラインを用いた生成逆数ネットワークを用いて,事前学習した部分的ジェスチャー列に対するアプローチを提案する。
空間表現を直接ベクトル表現にマッピングするのではなく、潜在空間表現のマッピングを学習することにより、非常に現実的で表現力のあるジェスチャーの生成を促進する。
論文 参考訳(メタデータ) (2023-05-02T07:59:38Z) - Variational Voxel Pseudo Image Tracking [127.46919555100543]
不確実性推定は、ロボット工学や自律運転といった重要な問題にとって重要なタスクである。
本稿では,3次元物体追跡のためのVoxel Pseudo Image Tracking (VPIT) の変分ニューラルネットワークによるバージョンを提案する。
論文 参考訳(メタデータ) (2023-02-12T13:34:50Z) - An Omnidirectional Approach to Touch-based Continuous Authentication [6.83780085440235]
本稿では,スマートフォン上でのタッチ操作が,タッチスクリーンが捉えた動作を通じて,継続的なユーザ認証サービスを実現する方法に焦点を当てる。
タッチ方向とは無関係に従来の手法より優れる一方向アプローチを提案する。
TouchAlyticsの機能は、3つ以上のストロークを組み合わせれば、私たちのアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-01-13T13:58:06Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Contact-Aware Retargeting of Skinned Motion [49.71236739408685]
本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-09-15T17:05:02Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - High-Robustness, Low-Transferability Fingerprinting of Neural Networks [78.2527498858308]
本稿では,ディープニューラルネットワークを効果的にフィンガープリントするための特性例を提案する。
モデルプルーニングに対するベースモデルへの高いロバスト性、無関係モデルへの低透過性などが特徴である。
論文 参考訳(メタデータ) (2021-05-14T21:48:23Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Decoupling entrainment from consistency using deep neural networks [14.823143667165382]
一貫性の効果、すなわち個々のスタイルに固執する話者を孤立させることは、訓練の分析において重要な部分である。
そこで本研究では,話者の発声特徴を,その後の出力予測のコンファウンドとして扱うことを提案する。
既存の2つのニューラルアプローチを用いて、一貫性を制御するエントレインメントの新しい尺度を定義した。
論文 参考訳(メタデータ) (2020-11-03T17:30:05Z) - Moving fast and slow: Analysis of representations and post-processing in
speech-driven automatic gesture generation [7.6857153840014165]
我々は,表現学習を取り入れた音声によるジェスチャー生成のための,近年のディープラーニングに基づくデータ駆動手法を拡張した。
我々のモデルは音声を入力とし、3次元座標列の形式でジェスチャーを出力として生成する。
自動ジェスチャー生成法の設計において,動作表現と後処理の両方を考慮に入れることが重要であると結論付けた。
論文 参考訳(メタデータ) (2020-07-16T07:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。