論文の概要: Decorrelation-based Self-Supervised Visual Representation Learning for Writer Identification
- arxiv url: http://arxiv.org/abs/2410.01441v1
- Date: Wed, 2 Oct 2024 11:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 17:44:25.231011
- Title: Decorrelation-based Self-Supervised Visual Representation Learning for Writer Identification
- Title(参考訳): 教師識別のためのデコレーションに基づく自己監督型視覚表現学習
- Authors: Arkadip Maitra, Shree Mitra, Siladittya Manna, Saumik Bhattacharya, Umapada Pal,
- Abstract要約: 本稿では,自己教師型学習のデコリレーションに基づくパラダイムを探求し,著者識別のための不整合脳卒中の特徴の学習に適用する。
提案手法は,著者識別ベンチマークにおいて,現代の自己教師型学習フレームワークよりも優れていることを示す。
我々の知る限り、本研究は、著者検証タスクの学習表現に自己教師付き学習を適用した最初のものである。
- 参考スコア(独自算出の注目度): 10.55096104577668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning has developed rapidly over the last decade and has been applied in many areas of computer vision. Decorrelation-based self-supervised pretraining has shown great promise among non-contrastive algorithms, yielding performance at par with supervised and contrastive self-supervised baselines. In this work, we explore the decorrelation-based paradigm of self-supervised learning and apply the same to learning disentangled stroke features for writer identification. Here we propose a modified formulation of the decorrelation-based framework named SWIS which was proposed for signature verification by standardizing the features along each dimension on top of the existing framework. We show that the proposed framework outperforms the contemporary self-supervised learning framework on the writer identification benchmark and also outperforms several supervised methods as well. To the best of our knowledge, this work is the first of its kind to apply self-supervised learning for learning representations for writer verification tasks.
- Abstract(参考訳): 自己教師型学習は過去10年間で急速に発展し、コンピュータビジョンの多くの分野に応用されてきた。
相関性に基づく自己教師付き事前学習は、非競合性アルゴリズムの間で大きな可能性を示しており、教師付きで対照的な自己教師付きベースラインと同等のパフォーマンスが得られる。
本研究では,自己教師型学習のデコリレーションに基づくパラダイムを探求し,著者識別のためのアンタングル型ストローク特徴の学習に適用する。
本稿では,既存のフレームワーク上の各次元に沿った特徴を標準化し,署名検証のために提案したSWISというデコリレーションベースのフレームワークを改良した定式化を提案する。
提案手法は,著者識別ベンチマークにおいて,現代の自己教師付き学習フレームワークよりも優れており,また,教師付き手法よりも優れていることを示す。
我々の知る限りでは、本研究は、著者検証タスクの学習表現に自己教師付き学習を適用した最初のものである。
関連論文リスト
- A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Self-Distilled Representation Learning for Time Series [45.51976109748732]
時系列データに対する自己教師型学習は、最近自然言語処理とコンピュータビジョンで発表されたものと類似した可能性を秘めている。
我々は,Data2vec自己蒸留フレームワークに基づく,概念的にシンプルだが強力な非競合的アプローチを提案する。
UCRやUEAのアーカイブやETTやElectricityのデータセットなど、最先端の自己教師型学習手法と比較して、下流タスクとして分類と予測を行うアプローチの競争力を実証する。
論文 参考訳(メタデータ) (2023-11-19T14:34:01Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - GEDI: GEnerative and DIscriminative Training for Self-Supervised
Learning [3.6804038214708563]
我々は最先端の自己教師型学習目標について検討し、確率学習に基づく統一的な定式化を提案する。
我々は、この組み合わせフレームワークをGEDIと呼び、これはGEnerativeおよびDIscriminative Trainingの略である。
GEDIはクラスタリング性能において,既存の自己教師型学習戦略よりも広いマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-12-27T09:33:50Z) - Self-Taught Metric Learning without Labels [47.832107446521626]
教師なしメトリック学習のための新しい自己学習フレームワークを提案する。
埋め込みモデルの移動平均を通してデータ間のクラス等価関係を予測し、予測された関係を擬似ラベルとして学習する。
論文 参考訳(メタデータ) (2022-05-04T05:48:40Z) - Leveraging Hidden Structure in Self-Supervised Learning [2.385916960125935]
本稿では,自己指導と構造学習を統合した相互情報目的に基づく原則的枠組みを提案する。
CIFAR-10の予備実験により、下流分類タスクにおいて、提案フレームワークがより高度な一般化性能を達成することを示す。
論文 参考訳(メタデータ) (2021-06-30T13:35:36Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Revisiting Contrastive Learning for Few-Shot Classification [74.78397993160583]
インスタンス識別に基づくコントラスト学習は,視覚表現の自己教師あり学習の指導的アプローチとして現れてきた。
本稿では,インスタンス識別に基づくコントラスト型自己教師付き学習フレームワークにおいて,新しいタスクを一般化する表現を学習する方法を示す。
提案手法は,cidを用いて訓練された普遍的埋め込みと組み合わせて,挑戦的メタデータセットベンチマークにおいて最先端アルゴリズムよりも優れる新しいモデル選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-26T19:58:08Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。