論文の概要: Continuous Perception for Classifying Shapes and Weights of Garmentsfor
Robotic Vision Applications
- arxiv url: http://arxiv.org/abs/2011.06089v2
- Date: Fri, 19 Nov 2021 10:07:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:51:20.951566
- Title: Continuous Perception for Classifying Shapes and Weights of Garmentsfor
Robotic Vision Applications
- Title(参考訳): ロボットビジョンのための衣服の形状と重量の連続認識
- Authors: Li Duan, Gerardo Aragon-Camarasa
- Abstract要約: 本稿では,ロボット洗濯作業に対する継続的認識へのアプローチを提案する。
我々の仮定は、衣服の形状と重量の視覚的予測は、ビデオシーケンスから衣服の動的変化を学習するニューラルネットワークを介して可能である、というものである。
その結果, ネットワークの分類精度は, 衣服の形状と重量に対して48%, 60%であった。
- 参考スコア(独自算出の注目度): 4.454557728745761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an approach to continuous perception for robotic laundry tasks.
Our assumption is that the visual prediction of a garment's shapes and weights
is possible via a neural network that learns the dynamic changes of garments
from video sequences. Continuous perception is leveraged during training by
inputting consecutive frames, of which the network learns how a garment
deforms. To evaluate our hypothesis, we captured a dataset of 40K RGB and 40K
depth video sequences while a garment is being manipulated. We also conducted
ablation studies to understand whether the neural network learns the physical
and dynamic properties of garments. Our findings suggest that a modified
AlexNet-LSTM architecture has the best classification performance for the
garment's shape and weights. To further provide evidence that continuous
perception facilitates the prediction of the garment's shapes and weights, we
evaluated our network on unseen video sequences and computed the 'Moving
Average' over a sequence of predictions. We found that our network has a
classification accuracy of 48% and 60% for shapes and weights of garments,
respectively.
- Abstract(参考訳): ロボット洗濯作業における連続知覚へのアプローチを提案する。
我々は,映像列から衣服の動的変化を学習するニューラルネットワークによって,衣服の形状と重量の視覚的な予測が可能であると仮定した。
連続知覚は連続したフレームを入力することで訓練中に利用され、ネットワークは衣服がどのように変形するかを学ぶ。
この仮説を評価するために,衣服の操作中に40KRGB,40K深度ビデオシーケンスのデータセットを収集した。
また,ニューラルネットワークが衣服の物理的および動的特性を学習するかどうかを理解するためにアブレーション研究を行った。
この結果から,改良型AlexNet-LSTMアーキテクチャは衣服の形状と重量に最適な分類性能を有することが示唆された。
さらに, 連続的な知覚が衣服の形状や重量の予測を促進する証拠として, 未確認映像系列によるネットワークの評価と, 一連の予測による「移動平均」の計算を行った。
その結果,ネットワークは衣服の形状と重量について,それぞれ48%,60%の分類精度を示した。
関連論文リスト
- AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments [6.821050909555717]
本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
論文 参考訳(メタデータ) (2023-08-05T09:09:50Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - DrapeNet: Garment Generation and Self-Supervised Draping [95.0315186890655]
私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
これは、生成ネットワークの潜時符号に条件付けられた3次元変形場を予測することで達成される。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
論文 参考訳(メタデータ) (2022-11-21T09:13:53Z) - Dynamic Neural Garments [45.833166320896716]
本稿では,身体の関節運動を取り込み,リアルな動的衣服画像列を直接生成する解を提案する。
具体的には, アバターの目標関節運動列を考慮し, ダイナミック・ニューラル・ウェアスを提案し, プラウシブル・ダイナミック・ウェアスの外観をシミュレートし, レンダリングする。
論文 参考訳(メタデータ) (2021-02-23T17:21:21Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On [9.293488420613148]
完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。
特定の衣服やメッシュトポロジーのために訓練された既存のデータ駆動モデルとは対照的に、私たちの完全な畳み込みモデルは、大きな種類の衣服を扱うことができる。
内部では、3つの異なる変形源を分離し、衣服のフィットを条件にすることで、3D衣服のドレープを学習する新しい幾何学的深層学習手法が提案されている。
論文 参考訳(メタデータ) (2020-09-09T22:38:03Z) - Predicting Neural Network Accuracy from Weights [25.73213712719546]
トレーニングされたニューラルネットワークの精度は、その重みだけを見て驚くほど正確に予測できることを実験的に示す。
この分野のさらなる研究を促進するために、4つの異なるデータセットでトレーニングされた120kの畳み込みニューラルネットワークのコレクションをリリースする。
論文 参考訳(メタデータ) (2020-02-26T13:06:14Z) - Dynamic Inference: A New Approach Toward Efficient Video Action
Recognition [69.9658249941149]
ビデオにおけるアクション認識は近年大きな成功を収めているが、膨大な計算コストのために依然として難しい課題である。
本稿では,異なるビデオの識別可能性の変動を利用して,推論効率を向上させるための一般的な動的推論手法を提案する。
論文 参考訳(メタデータ) (2020-02-09T11:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。