論文の概要: Skin feature point tracking using deep feature encodings
- arxiv url: http://arxiv.org/abs/2112.14159v1
- Date: Tue, 28 Dec 2021 14:29:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-31 03:20:47.940687
- Title: Skin feature point tracking using deep feature encodings
- Title(参考訳): 深部特徴エンコーディングを用いた皮膚特徴点追跡
- Authors: Jose Ramon Chang and Torbj\"orn E.M. Nordling
- Abstract要約: 本稿では,画像中の最も類似した作物を特徴量を含む参照作物に識別するために,畳み込み積み重ねオートエンコーダを適用した特徴追跡用パイプラインを提案する。
顔画像上でオートエンコーダを訓練し、手動でラベル付けされた顔と手動のビデオを用いて皮膚の特徴を追跡できることを検証する。
提案手法は,従来のアルゴリズムよりも特徴追跡,特徴マッチング,画像登録に優れた特徴記述子を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial feature tracking is a key component of imaging ballistocardiography
(BCG) where accurate quantification of the displacement of facial keypoints is
needed for good heart rate estimation. Skin feature tracking enables
video-based quantification of motor degradation in Parkinson's disease.
Traditional computer vision algorithms include Scale Invariant Feature
Transform (SIFT), Speeded-Up Robust Features (SURF), and Lucas-Kanade method
(LK). These have long represented the state-of-the-art in efficiency and
accuracy but fail when common deformations, like affine local transformations
or illumination changes, are present.
Over the past five years, deep convolutional neural networks have
outperformed traditional methods for most computer vision tasks. We propose a
pipeline for feature tracking, that applies a convolutional stacked autoencoder
to identify the most similar crop in an image to a reference crop containing
the feature of interest. The autoencoder learns to represent image crops into
deep feature encodings specific to the object category it is trained on.
We train the autoencoder on facial images and validate its ability to track
skin features in general using manually labeled face and hand videos. The
tracking errors of distinctive skin features (moles) are so small that we
cannot exclude that they stem from the manual labelling based on a
$\chi^2$-test. With a mean error of 0.6-4.2 pixels, our method outperformed the
other methods in all but one scenario. More importantly, our method was the
only one to not diverge.
We conclude that our method creates better feature descriptors for feature
tracking, feature matching, and image registration than the traditional
algorithms.
- Abstract(参考訳): 顔の特徴追跡は, 良質な心拍数推定のために, 顔のキーポイントの変位の正確な定量化が必要なBCGの重要成分である。
スキン特徴追跡はパーキンソン病における運動障害の映像的定量化を可能にする。
従来のコンピュータビジョンアルゴリズムには、SIFT(Scale Invariant Feature Transform)、SURF(Speeded-Up Robust Features)、LK(Lucas-Kanade Method)がある。
これらは長い間最先端の効率と正確さを表してきたが、アフィン局所変換や照明変化のような共通の変形が存在すると失敗する。
過去5年間で、ディープ畳み込みニューラルネットワークは、ほとんどのコンピュータビジョンタスクで従来の方法よりも優れています。
本稿では,画像中の最も類似した作物を特徴量を含む参照作物に識別するために,畳み込み積み重ねオートエンコーダを適用した特徴追跡用パイプラインを提案する。
オートエンコーダは、画像作物を訓練対象のカテゴリ特有の深い特徴エンコードに表現することを学ぶ。
顔画像上でオートエンコーダを訓練し、手動でラベル付けされた顔と手動のビデオを用いて皮膚の特徴を追跡できることを検証する。
特徴的皮膚特徴(moles)のトラッキングエラーは非常に小さいため、$\chi^2$-test に基づいた手動ラベリングから発生するものを排除することはできない。
0.6-4.2ピクセルの平均誤差で、この手法は1つのシナリオを除いて他の方法よりも優れていた。
さらに重要なことは、我々の方法だけが分岐しないものだった。
提案手法は,従来のアルゴリズムよりも特徴追跡,特徴マッチング,画像登録に優れた特徴記述子を生成する。
関連論文リスト
- Learning Expressive And Generalizable Motion Features For Face Forgery
Detection [52.54404879581527]
本稿では,既存のビデオ分類手法に基づく,シーケンスに基づく効果的な偽造検出フレームワークを提案する。
動作特徴をより表現しやすくするために,別の動作整合ブロックを提案する。
一般的なビデオ分類ネットワークを3つの顔偽造データに対して有望な結果を達成する。
論文 参考訳(メタデータ) (2024-03-08T09:25:48Z) - AbHE: All Attention-based Homography Estimation [0.0]
本研究では,局所的な特徴を持つ畳み込みニューラルネットワークとグローバルな特徴を持つトランスフォーマーモジュールを組み合わせた,Swin Transformerに基づく強力なベースラインモデルを提案する。
ホモグラフィ回帰段階では、相関ボリュームのチャネルに注意層を導入し、いくつかの弱い相関特徴点を排除できる。
実験の結果,8自由度(DOF)ホモグラフィーでは,我々の手法が最先端の手法をオーバーパフォーマンスすることがわかった。
論文 参考訳(メタデータ) (2022-12-06T15:00:00Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - Pixel-Perfect Structure-from-Motion with Featuremetric Refinement [96.73365545609191]
複数視点からの低レベル画像情報を直接アライメントすることで、動きからの2つの重要なステップを洗練する。
これにより、様々なキーポイント検出器のカメラポーズとシーン形状の精度が大幅に向上する。
本システムは,大規模な画像コレクションに容易にスケールできるので,クラウドソースによる大規模なローカライゼーションを実現することができる。
論文 参考訳(メタデータ) (2021-08-18T17:58:55Z) - Deep learning based geometric registration for medical images: How
accurate can we get without visual features? [5.05806585671215]
ディープラーニングは、画像登録のための新しいアプローチの開発を推進している。
本稿では,幾何学的特徴と最適化のみに基づく登録のための深層学習フレームワークを検討することで,正反対のアプローチを検討する。
実験では, 肺内構造の複雑なキーポイントグラフを用いて, 高密度エンコーダ・デコーダネットワークや他のポイントセット登録法を強力に上回って検証を行った。
論文 参考訳(メタデータ) (2021-03-01T10:15:47Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。