論文の概要: Large-Margin Representation Learning for Texture Classification
- arxiv url: http://arxiv.org/abs/2206.08537v1
- Date: Fri, 17 Jun 2022 04:07:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 12:52:38.327563
- Title: Large-Margin Representation Learning for Texture Classification
- Title(参考訳): テクスチャ分類のための大マージン表現学習
- Authors: Jonathan de Matos and Luiz Eduardo Soares de Oliveira and Alceu de
Souza Britto Junior and Alessandro Lameiras Koerich
- Abstract要約: 本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
- 参考スコア(独自算出の注目度): 67.94823375350433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel approach combining convolutional layers (CLs) and
large-margin metric learning for training supervised models on small datasets
for texture classification. The core of such an approach is a loss function
that computes the distances between instances of interest and support vectors.
The objective is to update the weights of CLs iteratively to learn a
representation with a large margin between classes. Each iteration results in a
large-margin discriminant model represented by support vectors based on such a
representation. The advantage of the proposed approach w.r.t. convolutional
neural networks (CNNs) is two-fold. First, it allows representation learning
with a small amount of data due to the reduced number of parameters compared to
an equivalent CNN. Second, it has a low training cost since the backpropagation
considers only support vectors. The experimental results on texture and
histopathologic image datasets have shown that the proposed approach achieves
competitive accuracy with lower computational cost and faster convergence when
compared to equivalent CNNs.
- Abstract(参考訳): 本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
このようなアプローチの中核は、関心のインスタンスとサポートベクトルの間の距離を計算する損失関数である。
目的はCLの重みを反復的に更新し、クラス間で大きなマージンを持つ表現を学ぶことである。
各イテレーションは、そのような表現に基づいてサポートベクトルで表される大きなマージン判別モデルをもたらす。
提案したアプローチw.r.t.畳み込みニューラルネットワーク(CNN)の利点は2倍である。
まず、等価なcnnと比較してパラメータの数が少ないため、少量のデータによる表現学習を可能にする。
第2に、バックプロパゲーションはサポートベクトルのみを考慮するため、トレーニングコストが低い。
テクスチャと病理組織画像データセットに関する実験結果から,提案手法は計算コストが低く,コンバージェンスが高速で,同等のcnnと比較できることがわかった。
関連論文リスト
- LiteNeXt: A Novel Lightweight ConvMixer-based Model with Self-embedding Representation Parallel for Medical Image Segmentation [2.0901574458380403]
医用画像分割のための軽量だが効率的な新しいモデル LiteNeXt を提案する。
LiteNeXtは、少量のパラメータ (0.71M) とギガ浮動小数点演算 (0.42) でスクラッチから訓練されている。
論文 参考訳(メタデータ) (2024-04-04T01:59:19Z) - Learning Partial Correlation based Deep Visual Representation for Image
Classification [61.0532370259644]
CNNの新たな構造層としてスパース逆共分散推定(SICE)を定式化する。
本研究は,部分的相関に基づく深部視覚表現を求め,小さなサンプル問題を緩和する。
実験により,本モデルの有効性と優れた分類性能が示された。
論文 参考訳(メタデータ) (2023-04-23T10:09:01Z) - Terrain Classification using Transfer Learning on Hyperspectral Images:
A Comparative study [0.13999481573773068]
畳み込みニューラルネットワーク(CNN)とMulti-Layer Perceptron(MLP)は画像分類の有効な方法であることが証明されている。
しかし、彼らは長いトレーニング時間と大量のラベル付きデータの要求の問題に悩まされている。
本稿では,移動学習法を用いてトレーニング時間を短縮し,大規模ラベル付きデータセットへの依存を減らすことを提案する。
論文 参考訳(メタデータ) (2022-06-19T14:36:33Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Learning from Small Samples: Transformation-Invariant SVMs with
Composition and Locality at Multiple Scales [11.210266084524998]
本稿では、畳み込みニューラルネットワーク(CNN)を成功させた、サポートベクターマシン(SVM)に組み込む方法を示す。
論文 参考訳(メタデータ) (2021-09-27T04:02:43Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - On the Texture Bias for Few-Shot CNN Segmentation [21.349705243254423]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクを実行するために形状によって駆動される。
最近の証拠は、CNNのテクスチャバイアスが、大きなラベル付きトレーニングデータセットで学習するときに、より高いパフォーマンスのモデルを提供することを示している。
本稿では,特徴空間内の高周波局所成分を減衰させるために,ガウス差分(DoG)の集合を統合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-09T11:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。