論文の概要: Offline Writer Identification Using Convolutional Neural Network
Activation Features
- arxiv url: http://arxiv.org/abs/2402.17029v1
- Date: Mon, 26 Feb 2024 21:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 18:34:19.175706
- Title: Offline Writer Identification Using Convolutional Neural Network
Activation Features
- Title(参考訳): 畳み込みニューラルネットワークアクティベーション特徴を用いたオフラインライタ識別
- Authors: Vincent Christlein, David Bernecker, Andreas Maier, Elli Angelopoulou
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、最近、大規模な画像分類のための最先端のツールとなっている。
本研究では,CNNのアクティベーション機能を,ライター識別のためのローカル記述子として用いることを提案する。
ICDAR 2013ベンチマークデータベースとCVLデータセットの2つの公開データセットに対して,本手法の評価を行った。
- 参考スコア(独自算出の注目度): 6.589323210821262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) have recently become the
state-of-the-art tool for large-scale image classification. In this work we
propose the use of activation features from CNNs as local descriptors for
writer identification. A global descriptor is then formed by means of GMM
supervector encoding, which is further improved by normalization with the
KL-Kernel. We evaluate our method on two publicly available datasets: the ICDAR
2013 benchmark database and the CVL dataset. While we perform comparably to the
state of the art on CVL, our proposed method yields about 0.21 absolute
improvement in terms of mAP on the challenging bilingual ICDAR dataset.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は最近、大規模画像分類の最先端ツールとなっている。
本研究では,cnnのアクティベーション機能をスクリプト識別のためのローカルディスクリプタとして使用することを提案する。
グローバルディスクリプタはGMMスーパーベクターエンコーディングによって形成され、KL-カーネルの正規化によりさらに改良される。
ICDAR 2013ベンチマークデータベースとCVLデータセットの2つの公開データセット上で本手法の評価を行った。
CVLにおける技術状況と相容れない性能を示す一方で,提案手法は,難解なバイリンガルICDARデータセット上でのmAPにおいて,約0.21の絶対的な改善をもたらす。
関連論文リスト
- DCNN: Dual Cross-current Neural Networks Realized Using An Interactive Deep Learning Discriminator for Fine-grained Objects [48.65846477275723]
本研究では、微細な画像分類の精度を向上させるために、新しい二重電流ニューラルネットワーク(DCNN)を提案する。
弱い教師付き学習バックボーンモデルを構築するための新しい特徴として、(a)異種データの抽出、(b)特徴マップの解像度の維持、(c)受容領域の拡大、(d)グローバル表現と局所特徴の融合などがある。
論文 参考訳(メタデータ) (2024-05-07T07:51:28Z) - Integrating Graph Neural Networks with Scattering Transform for Anomaly Detection [0.0]
グラフニューラルネットワーク(GNN)を用いたネットワーク侵入検知システム(NIDS)における2つの新しい手法を提案する。
最初のアプローチであるScattering Transform with E-GraphSAGE (STEG)は、散乱変換を用いてエッジ特徴ベクトルの多重分解能解析を行う。
第2のアプローチでは、ノード表現をNode2Vecで開始することで改善し、統一値を使用する標準的な方法から逸脱する。
論文 参考訳(メタデータ) (2024-04-16T00:02:12Z) - Applying Self-supervised Learning to Network Intrusion Detection for
Network Flows with Graph Neural Network [8.318363497010969]
本稿では,教師なし型ネットワークフローの特定のためのGNNの適用について検討する。
我々の知る限り、NIDSにおけるネットワークフローのマルチクラス分類のための最初のGNNベースの自己教師方式である。
論文 参考訳(メタデータ) (2024-03-03T12:34:13Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Transferring ConvNet Features from Passive to Active Robot
Self-Localization: The Use of Ego-Centric and World-Centric Views [2.362412515574206]
標準VPRサブシステムは利用可能であると仮定され、ドメイン不変な状態認識能力はドメイン不変なNBVプランナーを訓練するために転送される。
我々は,CNNモデルから利用可能な視覚的手がかりを,出力層キュー(OLC)と中間層キュー(ILC)の2つのタイプに分割する。
本フレームワークでは,ICCとOLCを状態ベクトルにマッピングし,深層強化学習による多視点NBVプランナの訓練に使用する。
論文 参考訳(メタデータ) (2022-04-22T04:42:33Z) - TC-Net: Triple Context Network for Automated Stroke Lesion Segmentation [0.5482532589225552]
本稿では,空間的コンテキスト情報を中心として,新たなネットワークである Triple Context Network (TC-Net) を提案する。
我々のネットワークはオープンデータセットATLASで評価され、最高スコアは0.594、ハウスドルフ距離は27.005mm、平均対称性表面距離は7.137mmである。
論文 参考訳(メタデータ) (2022-02-28T11:12:16Z) - Unsupervised Representation Learning via Neural Activation Coding [66.65837512531729]
我々は、下流アプリケーションのためのラベルなしデータから深部表現を学習するための新しいアプローチとして、ニューラルアクティベーションコーディング(NAC)を提案する。
我々はNACが連続したデータ表現と離散的なデータ表現の両方を学習し、それぞれ下流の2つのタスクで評価することを示した。
論文 参考訳(メタデータ) (2021-12-07T21:59:45Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。