論文の概要: CSSL-RHA: Contrastive Self-Supervised Learning for Robust Handwriting
Authentication
- arxiv url: http://arxiv.org/abs/2307.11100v1
- Date: Tue, 18 Jul 2023 02:20:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-30 04:26:14.399115
- Title: CSSL-RHA: Contrastive Self-Supervised Learning for Robust Handwriting
Authentication
- Title(参考訳): CSSL-RHA:ロバスト手書き認証のための対照的な自己監督型学習
- Authors: Jingyao Wang, Luntian Mou, Changwen Zheng, Wen Gao
- Abstract要約: 本稿では,ロバスト手書き認証のためのコントラスト型自己監督学習フレームワークを提案する。
複雑だが重要な特徴を動的に学習し、作者の身元を正確に予測することができる。
提案モデルでは,データ改ざんや汚損などの異常な状況下においても,認証を効果的に行うことができる。
- 参考スコア(独自算出の注目度): 23.565017967901618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Handwriting authentication is a valuable tool used in various fields, such as
fraud prevention and cultural heritage protection. However, it remains a
challenging task due to the complex features, severe damage, and lack of
supervision. In this paper, we propose a novel Contrastive Self-Supervised
Learning framework for Robust Handwriting Authentication (CSSL-RHA) to address
these issues. It can dynamically learn complex yet important features and
accurately predict writer identities. Specifically, to remove the negative
effects of imperfections and redundancy, we design an information-theoretic
filter for pre-processing and propose a novel adaptive matching scheme to
represent images as patches of local regions dominated by more important
features. Through online optimization at inference time, the most informative
patch embeddings are identified as the "most important" elements. Furthermore,
we employ contrastive self-supervised training with a momentum-based paradigm
to learn more general statistical structures of handwritten data without
supervision. We conduct extensive experiments on five benchmark datasets and
our manually annotated dataset EN-HA, which demonstrate the superiority of our
CSSL-RHA compared to baselines. Additionally, we show that our proposed model
can still effectively achieve authentication even under abnormal circumstances,
such as data falsification and corruption.
- Abstract(参考訳): 手書き認証は、不正防止や文化遺産保護など、様々な分野で使われる貴重なツールである。
しかし、複雑な特徴、深刻な損傷、監督の欠如により、依然として困難な課題である。
本稿では,ロバストな手書き認証(cssl-rha)のためのコントラスト型自己教師付き学習フレームワークを提案する。
複雑で重要な特徴を動的に学習し、著者のアイデンティティを正確に予測することができる。
具体的には,不完全性や冗長性の悪影響を取り除くために,事前処理のための情報理論的フィルタを設計し,より重要な特徴に支配される局所領域のパッチとして画像を表現する新しい適応マッチングスキームを提案する。
推測時のオンライン最適化により、最も有益なパッチ埋め込みは「最も重要な」要素として識別される。
さらに、運動量に基づくパラダイムを用いて、手書きデータのより一般的な統計構造を教師なしで学習する。
5つのベンチマークデータセットと手動で注釈付けしたデータセットEN-HAについて広範な実験を行い、ベースラインと比較してCSSL-RHAの優位性を示す。
また,提案モデルでは,データ改ざんや腐敗といった異常な状況下においても,認証を効果的に実現できることを示す。
関連論文リスト
- Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [94.13848736705575]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - Decorrelation-based Self-Supervised Visual Representation Learning for Writer Identification [10.55096104577668]
本稿では,自己教師型学習のデコリレーションに基づくパラダイムを探求し,著者識別のための不整合脳卒中の特徴の学習に適用する。
提案手法は,著者識別ベンチマークにおいて,現代の自己教師型学習フレームワークよりも優れていることを示す。
我々の知る限り、本研究は、著者検証タスクの学習表現に自己教師付き学習を適用した最初のものである。
論文 参考訳(メタデータ) (2024-10-02T11:43:58Z) - Image-based Freeform Handwriting Authentication with Energy-oriented Self-Supervised Learning [17.584355583447323]
SherlockNetは、堅牢で高速なフリーフォーム手書き認証のための、エネルギー指向の2ブランチの自己教師付き学習フレームワークである。
EN-HAは,データ偽造をシミュレートし,実際のアプリケーションに深刻なダメージを与える新しいデータセットである。
論文 参考訳(メタデータ) (2024-08-19T03:33:39Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [71.85120354973073]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - SignBERT+: Hand-model-aware Self-supervised Pre-training for Sign
Language Understanding [132.78015553111234]
手の動きは手話の表現において重要な役割を担っている。
現在,手話理解(SLU)の深層学習手法は,手話データ資源の不足により過度に適合する傾向にある。
モデル認識ハンドを組み込んだ初の自己教師型事前学習型SignBERT+フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T17:16:38Z) - Disentangled Text Representation Learning with Information-Theoretic
Perspective for Adversarial Robustness [17.5771010094384]
敵の脆弱性は信頼性の高いNLPシステムを構築する上で大きな障害である。
最近の研究は、モデルの敵意的な脆弱性は教師あり訓練における非破壊的な特徴によって引き起こされると主張している。
本稿では,不整合表現学習の観点から,敵対的課題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T18:14:39Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - SURDS: Self-Supervised Attention-guided Reconstruction and Dual Triplet
Loss for Writer Independent Offline Signature Verification [16.499360910037904]
オフライン署名検証(英: Offline Signature Verification、OSV)は、法学、商業、法学の様々な分野における基本的な生体計測の課題である。
著者に依存しないOSVにおける自己教師付き表現学習とメートル法学習を活用する2段階のディープラーニングフレームワークを提案する。
提案したフレームワークは2つのオフライン署名データセットで評価され、様々な最先端の手法と比較されている。
論文 参考訳(メタデータ) (2022-01-25T07:26:55Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。