論文の概要: SURDS: Self-Supervised Attention-guided Reconstruction and Dual Triplet
Loss for Writer Independent Offline Signature Verification
- arxiv url: http://arxiv.org/abs/2201.10138v1
- Date: Tue, 25 Jan 2022 07:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 15:40:37.569043
- Title: SURDS: Self-Supervised Attention-guided Reconstruction and Dual Triplet
Loss for Writer Independent Offline Signature Verification
- Title(参考訳): SURDS: 独立したオフライン署名検証のための自己監督型注意誘導再建と二重三重項損失
- Authors: Soumitri Chattopadhyay, Siladittya Manna, Saumik Bhattacharya, Umapada
Pal
- Abstract要約: オフライン署名検証(英: Offline Signature Verification、OSV)は、法学、商業、法学の様々な分野における基本的な生体計測の課題である。
著者に依存しないOSVにおける自己教師付き表現学習とメートル法学習を活用する2段階のディープラーニングフレームワークを提案する。
提案したフレームワークは2つのオフライン署名データセットで評価され、様々な最先端の手法と比較されている。
- 参考スコア(独自算出の注目度): 16.499360910037904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Offline Signature Verification (OSV) is a fundamental biometric task across
various forensic, commercial and legal applications. The underlying task at
hand is to carefully model fine-grained features of the signatures to
distinguish between genuine and forged ones, which differ only in minute
deformities. This makes OSV more challenging compared to other verification
problems. In this work, we propose a two-stage deep learning framework that
leverages self-supervised representation learning as well as metric learning
for writer-independent OSV. First, we train an image reconstruction network
using an encoder-decoder architecture that is augmented by a 2D spatial
attention mechanism using signature image patches. Next, the trained encoder
backbone is fine-tuned with a projector head using a supervised metric learning
framework, whose objective is to optimize a novel dual triplet loss by sampling
negative samples from both within the same writer class as well as from other
writers. The intuition behind this is to ensure that a signature sample lies
closer to its positive counterpart compared to negative samples from both
intra-writer and cross-writer sets. This results in robust discriminative
learning of the embedding space. To the best of our knowledge, this is the
first work of using self-supervised learning frameworks for OSV. The proposed
two-stage framework has been evaluated on two publicly available offline
signature datasets and compared with various state-of-the-art methods. It is
noted that the proposed method provided promising results outperforming several
existing pieces of work.
- Abstract(参考訳): オフライン署名検証(osv)は、様々な法医学的、商業的、法的な応用における基本的な生体認証タスクである。
基本的な課題は、署名のきめ細かい特徴を慎重にモデル化して、真のものと偽造されたものを区別することである。
これにより、osvは他の検証問題よりも困難になる。
本研究では,著者に依存しないOSVにおける自己教師付き表現学習とメトリクス学習を活用する2段階のディープラーニングフレームワークを提案する。
まず,シグネチャ画像パッチを用いた2次元空間注意機構により拡張されたエンコーダ-デコーダアーキテクチャを用いて,画像再構成ネットワークを訓練する。
次に、トレーニングされたエンコーダのバックボーンを、教師付きメトリック学習フレームワークを使用してプロジェクタヘッドで微調整し、その目的は、同じライタークラスと他のライタークラスの両方から負のサンプルをサンプリングすることで、新しい二重トリプルト損失を最適化することである。
この背景にある直感は、シグネチャのサンプルが、イントラライターとクロスライターのセットの負のサンプルよりも、正のサンプルに近いことを保証することである。
これは埋め込み空間の堅牢な識別学習をもたらす。
私たちの知る限りでは、これはOSV用に自己教師付き学習フレームワークを使用する最初の作業です。
提案する2段階フレームワークは、2つの公開オフライン署名データセットで評価され、さまざまな最先端手法と比較されている。
提案手法は,既存のいくつかの作業よりも優れた有望な結果を与える。
関連論文リスト
- Offline Signature Verification Based on Feature Disentangling Aided Variational Autoencoder [6.128256936054622]
シグネチャ検証システムの主なタスクは、シグネチャ画像から特徴を抽出し、分類のための分類器を訓練することである。
署名検証モデルがトレーニングされている場合、熟練した偽造の例は、しばしば利用できない。
本稿では, 可変オートエンコーダ(VAE)を用いて, 署名画像から直接特徴を抽出する新しい署名検証手法を提案する。
論文 参考訳(メタデータ) (2024-09-29T19:54:47Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Noisy-Correspondence Learning for Text-to-Image Person Re-identification [50.07634676709067]
本稿では,雑音対応においても頑健な視覚関係を学習するための新しいロバスト二重埋め込み法(RDE)を提案する。
提案手法は,3つのデータセット上での合成ノイズ対応と非合成ノイズ対応を両立させる。
論文 参考訳(メタデータ) (2023-08-19T05:34:13Z) - CLIP Brings Better Features to Visual Aesthetics Learners [12.0962117940694]
画像美学評価(IAA)は,主観的かつ高価なラベル付け手法により,このような手法の理想的な適用シナリオの1つである。
本研究は,テキストbfCLIPベースのテキストbfSemi-supervised textbfKnowledge textbfDistillationパラダイム,すなわちtextbftextitCSKDを提案する。
論文 参考訳(メタデータ) (2023-07-28T16:00:21Z) - CSSL-RHA: Contrastive Self-Supervised Learning for Robust Handwriting
Authentication [23.565017967901618]
本稿では,ロバスト手書き認証のためのコントラスト型自己監督学習フレームワークを提案する。
複雑だが重要な特徴を動的に学習し、作者の身元を正確に予測することができる。
提案モデルでは,データ改ざんや汚損などの異常な状況下においても,認証を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-07-18T02:20:46Z) - SWIS: Self-Supervised Representation Learning For Writer Independent
Offline Signature Verification [16.499360910037904]
ライター独立のオフライン署名検証は、パターン認識において最も難しいタスクの1つである。
著者独立型オフライン署名検証のための自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-26T06:33:25Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - MIST: Multiple Instance Self-Training Framework for Video Anomaly
Detection [76.80153360498797]
タスク固有の識別表現を効率的に洗練するためのマルチインスタンス自己学習フレームワーク(MIST)を開発した。
mistは1)スパース連続サンプリング戦略を適用し,より信頼性の高いクリップレベル擬似ラベルを生成するマルチインスタンス擬似ラベル生成器,2)自己誘導型注意強調特徴エンコーダで構成される。
本手法は,上海技術におけるフレームレベルのAUC 94.83%の取得において,既存の教師付きおよび弱教師付き手法と同等あるいはそれ以上に機能する。
論文 参考訳(メタデータ) (2021-04-04T15:47:14Z) - Vectorization and Rasterization: Self-Supervised Learning for Sketch and
Handwriting [168.91748514706995]
自己監督型機能学習のための2つの新しいクロスモーダル翻訳プリテキストタスクを提案する:ベクトル化とラスタリゼーション。
当社の学習したエンコーダモジュールは、手書きデータを分析するために、ベースとベクターの両方のダウンストリームアプローチに役立ちます。
論文 参考訳(メタデータ) (2021-03-25T09:47:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。