論文の概要: Contrastive Representation Learning for Hand Shape Estimation
- arxiv url: http://arxiv.org/abs/2106.04324v1
- Date: Tue, 8 Jun 2021 13:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 15:53:50.129497
- Title: Contrastive Representation Learning for Hand Shape Estimation
- Title(参考訳): 手形推定のためのコントラスト表現学習
- Authors: Christian Zimmermann, Max Argus and Thomas Brox
- Abstract要約: 本研究は、教師なし学習の最近の進歩に基づいて、単眼手形状推定の改善を示す。
我々は,ハンコと呼ぶ視覚表現学習に適した手画像の構造化収集に貢献する。
提案手法は,先進的な背景除去手法と多視点情報を利用して,コントラスト学習手法によって学習した表現を大幅に改善することができる。
- 参考スコア(独自算出の注目度): 46.51383044178326
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This work presents improvements in monocular hand shape estimation by
building on top of recent advances in unsupervised learning. We extend momentum
contrastive learning and contribute a structured collection of hand images,
well suited for visual representation learning, which we call HanCo. We find
that the representation learned by established contrastive learning methods can
be improved significantly by exploiting advanced background removal techniques
and multi-view information. These allow us to generate more diverse instance
pairs than those obtained by augmentations commonly used in exemplar based
approaches. Our method leads to a more suitable representation for the hand
shape estimation task and shows a 4.7% reduction in mesh error and a 3.6%
improvement in F-score compared to an ImageNet pretrained baseline. We make our
benchmark dataset publicly available, to encourage further research into this
direction.
- Abstract(参考訳): 本研究は、教師なし学習の最近の進歩の上に構築された単眼手形状推定の改善を示す。
我々は、運動量比較学習を拡張し、ハンコと呼ばれる視覚表現学習に適した手画像の構造化集合に寄与する。
提案手法は,先進的な背景除去手法と多視点情報を利用して,コントラスト学習手法によって学習した表現を大幅に改善することができる。
これにより、例ベースのアプローチで一般的に使用される拡張によって得られるものよりも、より多様なインスタンスペアを生成することができます。
提案手法は,手形推定タスクに適した表現となり,メッシュ誤差の4.7%低減と,imagenetで事前学習したベースラインと比較してf-scoreの3.6%向上を示す。
当社はベンチマークデータセットを公開し、この方向性に関するさらなる調査を奨励しています。
関連論文リスト
- RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Self-Supervised Image Representation Learning: Transcending Masking with
Paired Image Overlay [10.715255809531268]
本稿では,自己教師型学習には適用されていない画像のオーバーレイ化という,新たな画像強調手法を提案する。
提案手法は,ダウンストリームタスクにおいて確固とした性能を示す自己教師付き学習手法であるコントラスト学習を用いて評価する。
論文 参考訳(メタデータ) (2023-01-23T07:00:04Z) - Towards Efficient and Effective Self-Supervised Learning of Visual
Representations [41.92884427579068]
自己監督は視覚的表現学習のための提案的な方法として現れてきた。
より高速に収束する適切な補助タスクを用いて,これらの手法を強化することを提案する。
提案手法は回転予測のタスクを利用して,既存の最先端手法の効率を向上させる。
論文 参考訳(メタデータ) (2022-10-18T13:55:25Z) - Improving Image Clustering through Sample Ranking and Its Application to
remote--sensing images [14.531733039462058]
本稿では,現在クラスタに属するクラスタの信頼性に基づいて,各クラスタ内のサンプルをランク付けする新しい手法を提案する。
そこで,本研究では,人口密度の密集した地域にあるか否かに基づいて,現在のクラスタに属するサンプルの確率を計算する手法を開発した。
本手法はリモートセンシング画像に効果的に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-09-26T12:10:02Z) - Contrastive Learning from Demonstrations [0.0]
これらの表現は、ピック・アンド・プレイスを含むいくつかのロボット作業の模倣に適用可能であることを示す。
我々は、タスク関連情報を強化するためにコントラスト学習を適用することで、最近提案された自己教師付き学習アルゴリズムを最適化する。
論文 参考訳(メタデータ) (2022-01-30T13:36:07Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Self-supervised Co-training for Video Representation Learning [103.69904379356413]
実例に基づく情報ノイズコントラスト推定訓練に意味クラス正の付加を施すことの利点について検討する。
本稿では,インフォネッションNCEの損失を改善するための,自己指導型協調学習手法を提案する。
本研究では,2つの下流タスク(行動認識とビデオ検索)における学習表現の質を評価する。
論文 参考訳(メタデータ) (2020-10-19T17:59:01Z) - A Simple Framework for Contrastive Learning of Visual Representations [116.37752766922407]
本稿では,視覚表現のコントラスト学習のためのシンプルなフレームワークであるSimCLRについて述べる。
我々は,データ拡張の構成が効果的な予測タスクを定義する上で重要な役割を担っていることを示す。
我々は、ImageNet上での自己教師付き半教師付き学習において、従来の手法よりもかなり優れています。
論文 参考訳(メタデータ) (2020-02-13T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。