論文の概要: Learning Local Complex Features using Randomized Neural Networks for
Texture Analysis
- arxiv url: http://arxiv.org/abs/2007.05643v2
- Date: Mon, 17 Aug 2020 18:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 22:17:18.220862
- Title: Learning Local Complex Features using Randomized Neural Networks for
Texture Analysis
- Title(参考訳): テクスチャ解析のためのランダムニューラルネットワークを用いた局所的複雑特徴の学習
- Authors: Lucas C. Ribas, Leonardo F. S. Scabini, Jarbas Joaci de Mesquita S\'a
Junior and Odemir M. Bruno
- Abstract要約: テクスチャ解析のための学習手法と複雑ネットワーク(CN)理論を組み合わせた新しい手法を提案する。
この方法はCNの表現能力を利用してテクスチャイメージを有向ネットワークとしてモデル化する。
このニューラルネットワークは、単一の隠蔽層を持ち、高速学習アルゴリズムを使用して、テクスチャのキャラクタリゼーションのためにローカルなCNパターンを学習することができる。
- 参考スコア(独自算出の注目度): 0.1474723404975345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Texture is a visual attribute largely used in many problems of image
analysis. Currently, many methods that use learning techniques have been
proposed for texture discrimination, achieving improved performance over
previous handcrafted methods. In this paper, we present a new approach that
combines a learning technique and the Complex Network (CN) theory for texture
analysis. This method takes advantage of the representation capacity of CN to
model a texture image as a directed network and uses the topological
information of vertices to train a randomized neural network. This neural
network has a single hidden layer and uses a fast learning algorithm, which is
able to learn local CN patterns for texture characterization. Thus, we use the
weighs of the trained neural network to compose a feature vector. These feature
vectors are evaluated in a classification experiment in four widely used image
databases. Experimental results show a high classification performance of the
proposed method when compared to other methods, indicating that our approach
can be used in many image analysis problems.
- Abstract(参考訳): テクスチャは画像解析の多くの問題で主に使用される視覚特性である。
現在, テクスチャ識別のための学習手法が多数提案されており, 従来の手工法よりも性能が向上している。
本稿では,テクスチャ解析のための学習手法と複雑ネットワーク(CN)理論を組み合わせた新しい手法を提案する。
この方法は、CNの表現能力を利用してテクスチャイメージを有向ネットワークとしてモデル化し、頂点の位相情報を用いてランダム化されたニューラルネットワークを訓練する。
このニューラルネットワークは、単一の隠れ層を持ち、テクスチャキャラクタリゼーションのためにローカルcnパターンを学習できる高速学習アルゴリズムを使用する。
したがって、訓練されたニューラルネットワークの重みを使って特徴ベクトルを構成する。
これらの特徴ベクトルは、4つの広く使われている画像データベースの分類実験で評価される。
実験の結果,提案手法は他の手法と比較して高い分類性能を示し,多くの画像解析問題において本手法が有効であることを示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Multilayer deep feature extraction for visual texture recognition [0.0]
本稿では,テクスチャ分類における畳み込みニューラルネットワークの精度向上に着目した。
事前訓練されたニューラルネットワークの複数の畳み込み層から特徴を抽出し、フィッシャーベクトルを用いてそのような特徴を集約する。
本手法は,ブラジルの植物種識別の実践的課題と同様に,ベンチマークデータセットのテクスチャ分類における有効性を検証する。
論文 参考訳(メタデータ) (2022-08-22T03:53:43Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - VisGraphNet: a complex network interpretation of convolutional neural
features [6.50413414010073]
ニューラルネットワークの特徴マップをモデル化するための可視性グラフの提案と検討を行う。
この研究は、元のデータよりもこれらのグラフによって提供される別の視点によって動機付けられている。
論文 参考訳(メタデータ) (2021-08-27T20:21:04Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Noise-robust classification with hypergraph neural network [4.003697389752555]
本稿では,ハイパーグラフニューラルネットワーク手法の新たなバージョンを提案する。
これら5つの手法の精度を評価し,比較した。
実験結果から, ハイパグラフニューラルネットワーク法は, ノイズレベルが大きくなると最高の性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-02-03T08:34:53Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Aggregated Learning: A Vector-Quantization Approach to Learning Neural
Network Classifiers [48.11796810425477]
IB学習は、実際、量子化問題の特別なクラスと等価であることを示す。
ニューラルネットワークモデルを用いた分類のための新しい学習フレームワーク"集約学習"を提案する。
本フレームワークの有効性は,標準画像認識およびテキスト分類タスクに関する広範な実験を通じて検証される。
論文 参考訳(メタデータ) (2020-01-12T16:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。