論文の概要: Detecting Arbitrary Keypoints on Limbs and Skis with Sparse Partly
Correct Segmentation Masks
- arxiv url: http://arxiv.org/abs/2211.09446v1
- Date: Thu, 17 Nov 2022 10:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 16:19:38.406854
- Title: Detecting Arbitrary Keypoints on Limbs and Skis with Sparse Partly
Correct Segmentation Masks
- Title(参考訳): 部分修正部分分割マスクによる肢とスキーの任意キーポイントの検出
- Authors: Katja Ludwig, Daniel Kienzle, Julian Lorenz, Rainer Lienhart
- Abstract要約: 本稿では,プロスキージャンプ選手の手足とスキーの任意のキーポイントを検出する手法を提案する。
我々のモデルはVision Transformerアーキテクチャに基づいており、入力トークンが所望のキーポイントを問合せするための特別な設計をしている。
- 参考スコア(独自算出の注目度): 16.172800007896285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyses based on the body posture are crucial for top-class athletes in many
sports disciplines. If at all, coaches label only the most important keypoints,
since manual annotations are very costly. This paper proposes a method to
detect arbitrary keypoints on the limbs and skis of professional ski jumpers
that requires a few, only partly correct segmentation masks during training.
Our model is based on the Vision Transformer architecture with a special design
for the input tokens to query for the desired keypoints. Since we use
segmentation masks only to generate ground truth labels for the freely
selectable keypoints, partly correct segmentation masks are sufficient for our
training procedure. Hence, there is no need for costly hand-annotated
segmentation masks. We analyze different training techniques for freely
selected and standard keypoints, including pseudo labels, and show in our
experiments that only a few partly correct segmentation masks are sufficient
for learning to detect arbitrary keypoints on limbs and skis.
- Abstract(参考訳): 身体姿勢に基づく分析は多くのスポーツ分野のトップクラスのアスリートにとって不可欠である。
手動アノテーションは非常にコストがかかるため、コーチは最も重要なキーポイントのみをラベル付けする。
本稿では,プロスキージャンプ選手の四肢とスキーの任意のキーポイントを検出する手法を提案する。
私たちのモデルはvision transformerアーキテクチャに基づいており、入力トークンが所望のキーポイントを問い合わせる特別な設計をしています。
選択可能なキーポイントに対して,セグメンテーションマスクのみを使用してグラウンド真理ラベルを生成するので,トレーニング手順には部分的に正しいセグメンテーションマスクが十分である。
したがって、高価な手書きのセグメンテーションマスクは不要である。
擬似ラベルを含む自由選択および標準キーポイントのための異なるトレーニング手法を解析し,手足やスキーの任意のキーポイントを検出するのに十分な部分的なセグメンテーションマスクがいくつか存在することを示す。
関連論文リスト
- Variance-insensitive and Target-preserving Mask Refinement for
Interactive Image Segmentation [68.16510297109872]
ポイントベースのインタラクティブなイメージセグメンテーションは、セマンティックセグメンテーションや画像編集といったアプリケーションにおけるマスクアノテーションの負担を軽減することができる。
本稿では,ユーザ入力の少ないセグメンテーション品質を向上する新しい手法である可変無感・ターゲット保存マスクリファインメントを提案する。
GrabCut、バークレー、SBD、DAVISデータセットの実験は、インタラクティブな画像セグメンテーションにおける我々の手法の最先端性能を実証している。
論文 参考訳(メタデータ) (2023-12-22T02:31:31Z) - All Keypoints You Need: Detecting Arbitrary Keypoints on the Body of
Triple, High, and Long Jump Athletes [16.172800007896285]
本稿では,運動選手の身体の微細な位置を必要とする三段跳躍,高段跳躍,長段跳躍の規律に焦点を当てた。
そこで本研究では,選手の身体全体における任意のキーポイントを検出するために,注釈付きキーポイントと自動生成セグメンテーションマスクの限定セットを活用する手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T08:54:21Z) - Discovering Object Masks with Transformers for Unsupervised Semantic
Segmentation [75.00151934315967]
MaskDistillは教師なしセマンティックセグメンテーションのための新しいフレームワークである。
我々のフレームワークは、低レベルの画像キューにラッチを付けず、オブジェクト中心のデータセットに限らない。
論文 参考訳(メタデータ) (2022-06-13T17:59:43Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Semantic Segmentation In-the-Wild Without Seeing Any Segmentation
Examples [34.97652735163338]
本稿では,各オブジェクトに対するセマンティックセグメンテーションマスク作成のための新しいアプローチを提案する。
本手法は,画像に含まれるクラスカテゴリのイメージレベルラベルを入力として扱う。
このステージの出力は、教師付きメソッドが必要とする手動のピクセルレベルラベルの代わりに、ピクセルレベルの擬似ラベルを提供する。
論文 参考訳(メタデータ) (2021-12-06T17:32:38Z) - Learning To Segment Dominant Object Motion From Watching Videos [72.57852930273256]
我々は,有意な移動物体セグメンテーションのための単純なフレームワークを構想する。このフレームワークは,有意なデータを必要としないし,有意な前処理や事前学習された光フローマップに依存しない。
層状画像表現に着想を得て,アフィンパラメトリックの動きに応じて画素領域をグループ化する手法を提案する。
これにより、トレーニングと推論の両方の入力として、RGBイメージペアのみを使用して、支配的なフォアグラウンドオブジェクトのセグメンテーションを学習することができる。
論文 参考訳(メタデータ) (2021-11-28T14:51:00Z) - Open-Vocabulary Instance Segmentation via Robust Cross-Modal
Pseudo-Labeling [61.03262873980619]
Open-vocabularyのインスタンスセグメンテーションは、マスクアノテーションなしで新しいクラスをセグメンテーションすることを目的としている。
本研究では,字幕内の単語の意味を画像中のオブジェクトマスクの視覚的特徴と整合させることで,擬似マスクの訓練を行うクロスモーダルな擬似ラベルフレームワークを提案する。
我々のフレームワークは、生徒の自己学習のための単語意味論を通じて、キャプションに新しいクラスをラベル付けすることができる。
論文 参考訳(メタデータ) (2021-11-24T18:50:47Z) - MaskSplit: Self-supervised Meta-learning for Few-shot Semantic
Segmentation [10.809349710149533]
本稿では,少数ショットセグメンテーションモデル学習のための自己教師付きトレーニング手法を提案する。
まず、教師なしサリエンシ推定を用いて画像上の擬似マスクを求める。
次に、擬似マスクの異なる分割と画像の拡張に対して、簡単なプロトタイプベースのモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-10-23T12:30:05Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。