論文の概要: Kinship Verification Based on Cross-Generation Feature Interaction
Learning
- arxiv url: http://arxiv.org/abs/2109.02809v1
- Date: Tue, 7 Sep 2021 01:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 23:38:08.851419
- Title: Kinship Verification Based on Cross-Generation Feature Interaction
Learning
- Title(参考訳): クロスジェネレーション機能インタラクション学習に基づくキンシップ検証
- Authors: Guan-Nan Dong, Chi-Man Pun, Zheng Zhang
- Abstract要約: 顔画像からの血縁検証は、コンピュータビジョンの応用において、新しいが挑戦的な技術として認識されている。
本稿では,頑健な親族関係検証のためのクロスジェネレーション・インタラクション・ラーニング(CFIL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.62256887837659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kinship verification from facial images has been recognized as an emerging
yet challenging technique in many potential computer vision applications. In
this paper, we propose a novel cross-generation feature interaction learning
(CFIL) framework for robust kinship verification. Particularly, an effective
collaborative weighting strategy is constructed to explore the characteristics
of cross-generation relations by corporately extracting features of both
parents and children image pairs. Specifically, we take parents and children as
a whole to extract the expressive local and non-local features. Different from
the traditional works measuring similarity by distance, we interpolate the
similarity calculations as the interior auxiliary weights into the deep CNN
architecture to learn the whole and natural features. These similarity weights
not only involve corresponding single points but also excavate the multiple
relationships cross points, where local and non-local features are calculated
by using these two kinds of distance measurements. Importantly, instead of
separately conducting similarity computation and feature extraction, we
integrate similarity learning and feature extraction into one unified learning
process. The integrated representations deduced from local and non-local
features can comprehensively express the informative semantics embedded in
images and preserve abundant correlation knowledge from image pairs. Extensive
experiments demonstrate the efficiency and superiority of the proposed model
compared to some state-of-the-art kinship verification methods.
- Abstract(参考訳): 顔画像からの血縁検証は、多くの潜在的なコンピュータビジョンアプリケーションにおいて、新しいが困難な技術として認識されている。
本稿では,ロバストな親和性検証のための新しい世代間インタラクション学習(cfil)フレームワークを提案する。
特に,親と子の両方のイメージペアの特徴をコーポレートに抽出することで,世代間関係の特徴を探るため,効果的な協調重み付け戦略を構築した。
具体的には,親子をまとめて,局所的・非局所的特徴を抽出する。
距離によって類似度を測定する従来の作品とは異なり、内部補助重みとして類似度計算をディープcnnアーキテクチャに補うことで、全体と自然な特徴を学習する。
これらの類似度重みは、対応する単一点だけでなく、局所的特徴と非局所的特徴をこれらの2種類の距離測定を用いて計算する複数の関係点を掘削する。
重要なことは、類似性計算と特徴抽出を別々に行うのではなく、類似性学習と特徴抽出を一つの統合学習プロセスに統合することである。
局所的特徴と非局所的特徴から導出される統合表現は、画像に埋め込まれた情報的意味を包括的に表現し、画像ペアから豊富な相関知識を保持することができる。
広範囲な実験により提案モデルの有効性と優位性を示す。
関連論文リスト
- Multi-scale Target-Aware Framework for Constrained Image Splicing
Detection and Localization [11.803255600587308]
統合パイプラインにおける特徴抽出と相関マッチングを結合するマルチスケールなターゲット認識フレームワークを提案する。
提案手法は,関連パッチの協調学習を効果的に促進し,特徴学習と相関マッチングの相互促進を行う。
我々の実験では、統一パイプラインを用いたモデルが、いくつかのベンチマークデータセット上で最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-08-18T07:38:30Z) - Compositional Learning in Transformer-Based Human-Object Interaction
Detection [6.630793383852106]
ラベル付きインスタンスの長期分布は、HOI検出の主要な課題である。
HOI三重奏の性質にインスパイアされた既存のアプローチでは、作曲学習という概念が採用されている。
我々は,構成HoI学習のためのトランスフォーマーベースのフレームワークを創造的に提案する。
論文 参考訳(メタデータ) (2023-08-11T06:41:20Z) - ResMatch: Residual Attention Learning for Local Feature Matching [51.07496081296863]
従来の特徴マッチングとフィルタリングの観点から、クロスアテンションとセルフアテンションを再考する。
我々は,記述者と相対的な位置の類似性を,クロスアテンションスコアとセルフアテンションスコアに注入する。
我々は、記述子と相対的な位置の類似性に応じて隣人内および隣人間を採掘する。
論文 参考訳(メタデータ) (2023-07-11T11:32:12Z) - Part Aware Contrastive Learning for Self-Supervised Action Recognition [18.423841093299135]
本稿では,骨格表現学習のための注意に基づくコントラスト学習フレームワークであるSkeAttnCLRを提案する。
提案するSkeAttnCLRはNTURGB+D, NTU120-RGB+D, PKU-MMDデータセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2023-05-01T05:31:48Z) - PGGANet: Pose Guided Graph Attention Network for Person
Re-identification [0.0]
人物再識別(ReID)は、異なるカメラで撮影された画像から人物を回収することを目的としている。
局所的な特徴と人像のグローバルな特徴を併用することで、人物の検索に堅牢な特徴表現を与えることができることが証明されている。
本研究では,ポーズガイド付きグラフアテンションネットワーク,グローバル機能のための1つのブランチ,中粒体機能のための1つのブランチ,粒状キーポイント機能のための1つのブランチからなるマルチブランチアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-29T09:47:39Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。