論文の概要: Skin feature point tracking using deep feature encodings
- arxiv url: http://arxiv.org/abs/2112.14159v1
- Date: Tue, 28 Dec 2021 14:29:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-31 03:20:47.940687
- Title: Skin feature point tracking using deep feature encodings
- Title(参考訳): 深部特徴エンコーディングを用いた皮膚特徴点追跡
- Authors: Jose Ramon Chang and Torbj\"orn E.M. Nordling
- Abstract要約: 本稿では,画像中の最も類似した作物を特徴量を含む参照作物に識別するために,畳み込み積み重ねオートエンコーダを適用した特徴追跡用パイプラインを提案する。
顔画像上でオートエンコーダを訓練し、手動でラベル付けされた顔と手動のビデオを用いて皮膚の特徴を追跡できることを検証する。
提案手法は,従来のアルゴリズムよりも特徴追跡,特徴マッチング,画像登録に優れた特徴記述子を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial feature tracking is a key component of imaging ballistocardiography
(BCG) where accurate quantification of the displacement of facial keypoints is
needed for good heart rate estimation. Skin feature tracking enables
video-based quantification of motor degradation in Parkinson's disease.
Traditional computer vision algorithms include Scale Invariant Feature
Transform (SIFT), Speeded-Up Robust Features (SURF), and Lucas-Kanade method
(LK). These have long represented the state-of-the-art in efficiency and
accuracy but fail when common deformations, like affine local transformations
or illumination changes, are present.
Over the past five years, deep convolutional neural networks have
outperformed traditional methods for most computer vision tasks. We propose a
pipeline for feature tracking, that applies a convolutional stacked autoencoder
to identify the most similar crop in an image to a reference crop containing
the feature of interest. The autoencoder learns to represent image crops into
deep feature encodings specific to the object category it is trained on.
We train the autoencoder on facial images and validate its ability to track
skin features in general using manually labeled face and hand videos. The
tracking errors of distinctive skin features (moles) are so small that we
cannot exclude that they stem from the manual labelling based on a
$\chi^2$-test. With a mean error of 0.6-4.2 pixels, our method outperformed the
other methods in all but one scenario. More importantly, our method was the
only one to not diverge.
We conclude that our method creates better feature descriptors for feature
tracking, feature matching, and image registration than the traditional
algorithms.
- Abstract(参考訳): 顔の特徴追跡は, 良質な心拍数推定のために, 顔のキーポイントの変位の正確な定量化が必要なBCGの重要成分である。
スキン特徴追跡はパーキンソン病における運動障害の映像的定量化を可能にする。
従来のコンピュータビジョンアルゴリズムには、SIFT(Scale Invariant Feature Transform)、SURF(Speeded-Up Robust Features)、LK(Lucas-Kanade Method)がある。
これらは長い間最先端の効率と正確さを表してきたが、アフィン局所変換や照明変化のような共通の変形が存在すると失敗する。
過去5年間で、ディープ畳み込みニューラルネットワークは、ほとんどのコンピュータビジョンタスクで従来の方法よりも優れています。
本稿では,画像中の最も類似した作物を特徴量を含む参照作物に識別するために,畳み込み積み重ねオートエンコーダを適用した特徴追跡用パイプラインを提案する。
オートエンコーダは、画像作物を訓練対象のカテゴリ特有の深い特徴エンコードに表現することを学ぶ。
顔画像上でオートエンコーダを訓練し、手動でラベル付けされた顔と手動のビデオを用いて皮膚の特徴を追跡できることを検証する。
特徴的皮膚特徴(moles)のトラッキングエラーは非常に小さいため、$\chi^2$-test に基づいた手動ラベリングから発生するものを排除することはできない。
0.6-4.2ピクセルの平均誤差で、この手法は1つのシナリオを除いて他の方法よりも優れていた。
さらに重要なことは、我々の方法だけが分岐しないものだった。
提案手法は,従来のアルゴリズムよりも特徴追跡,特徴マッチング,画像登録に優れた特徴記述子を生成する。
関連論文リスト
- Classification and regression of trajectories rendered as images via 2D Convolutional Neural Networks [0.0]
コンピュータビジョンの最近の進歩は、2次元畳み込み層(CNN)を持つ人工ニューラルネットワークによる画像として表現された軌跡の処理を容易にしている。
本研究では,CNNを用いた合成軌道の分類と回帰問題の解法について検討した。
その結果,移動方向が重要となるアプリケーションにおいて,モデル深度や動作履歴に応じて適切な画像解像度を選択することの重要性を強調した。
論文 参考訳(メタデータ) (2024-09-27T15:27:04Z) - Unsupervised Skin Feature Tracking with Deep Neural Networks [0.0]
深層畳み込みニューラルネットワークは、トラッキングタスクにおいて顕著な精度を示している。
我々のパイプラインは、画像作物とターゲット特徴を含む参照作物とを一致させるために、畳み込み重ねられたオートエンコーダを使用している。
我々の教師なし学習アプローチは、重要な運動条件下での様々な皮膚の特徴の追跡に優れている。
論文 参考訳(メタデータ) (2024-05-08T10:27:05Z) - Learning Expressive And Generalizable Motion Features For Face Forgery
Detection [52.54404879581527]
本稿では,既存のビデオ分類手法に基づく,シーケンスに基づく効果的な偽造検出フレームワークを提案する。
動作特徴をより表現しやすくするために,別の動作整合ブロックを提案する。
一般的なビデオ分類ネットワークを3つの顔偽造データに対して有望な結果を達成する。
論文 参考訳(メタデータ) (2024-03-08T09:25:48Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - Pixel-Perfect Structure-from-Motion with Featuremetric Refinement [96.73365545609191]
複数視点からの低レベル画像情報を直接アライメントすることで、動きからの2つの重要なステップを洗練する。
これにより、様々なキーポイント検出器のカメラポーズとシーン形状の精度が大幅に向上する。
本システムは,大規模な画像コレクションに容易にスケールできるので,クラウドソースによる大規模なローカライゼーションを実現することができる。
論文 参考訳(メタデータ) (2021-08-18T17:58:55Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z) - Deep Feature Consistent Variational Autoencoder [46.25741696270528]
本稿では,変分オートエンコーダ(VAE)構築のための新しい手法を提案する。
ピクセル・バイ・ピクセル・ロスを使用する代わりに、入力とVAEの出力の深い特徴一貫性を強制する。
また,本手法は,顔表現の意味情報をキャプチャする潜在ベクトルを生成できることを示す。
論文 参考訳(メタデータ) (2016-10-02T15:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。