論文の概要: Riesz feature representation: scale equivariant scattering network for
classification tasks
- arxiv url: http://arxiv.org/abs/2307.08467v2
- Date: Thu, 11 Jan 2024 13:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 03:39:59.241317
- Title: Riesz feature representation: scale equivariant scattering network for
classification tasks
- Title(参考訳): riesz特徴表現:分類タスクのためのスケール同変散乱ネットワーク
- Authors: Tin Barisin and Jesus Angulo and Katja Schladitz and Claudia Redenbach
- Abstract要約: 散乱ネットワークは、長い訓練を必要としない強力な階層的な画像記述子を生成する。
彼らはスケールディメンションのサンプリングに頼っている。
本研究では,Riesz変換に基づく代替的特徴表現を定義する。
- 参考スコア(独自算出の注目度): 0.6827423171182154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scattering networks yield powerful and robust hierarchical image descriptors
which do not require lengthy training and which work well with very few
training data. However, they rely on sampling the scale dimension. Hence, they
become sensitive to scale variations and are unable to generalize to unseen
scales. In this work, we define an alternative feature representation based on
the Riesz transform. We detail and analyze the mathematical foundations behind
this representation. In particular, it inherits scale equivariance from the
Riesz transform and completely avoids sampling of the scale dimension.
Additionally, the number of features in the representation is reduced by a
factor four compared to scattering networks. Nevertheless, our representation
performs comparably well for texture classification with an interesting
addition: scale equivariance. Our method yields superior performance when
dealing with scales outside of those covered by the training dataset. The
usefulness of the equivariance property is demonstrated on the digit
classification task, where accuracy remains stable even for scales four times
larger than the one chosen for training. As a second example, we consider
classification of textures.
- Abstract(参考訳): 散乱ネットワークは、長いトレーニングを必要とせず、非常に少ないトレーニングデータでうまく機能する、強力で堅牢な階層型画像記述子を生成する。
しかし、それらはスケール次元のサンプリングに依存している。
したがって、それらはスケールのバリエーションに敏感になり、目に見えないスケールに一般化できない。
本研究では,Riesz変換に基づく代替的特徴表現を定義する。
この表現の背後にある数学的基礎を詳述し分析する。
特に、それはリース変換からスケール等分散を継承し、スケール次元のサンプリングを完全に避けている。
さらに、表現における特徴の数は、散乱ネットワークと比較して係数4に減少する。
それにもかかわらず、我々の表現はテクスチャ分類において、興味深い追加:スケール同値性(scale equivariance)で比較的によく機能する。
本手法は,トレーニングデータセットでカバーされたもの以外のスケールを扱う場合,優れた性能が得られる。
等分散特性の有用性は,訓練対象の4倍の大きさのスケールであっても精度が安定な数値分類タスクにおいて実証された。
第2の例として,テクスチャの分類について考察する。
関連論文リスト
- Balancing Logit Variation for Long-tailed Semantic Segmentation [28.92929059563813]
トレーニングフェーズにおけるネットワーク予測にカテゴリワイドなバリエーションを導入する。
異なるカテゴリの特徴領域間のギャップを埋めて、よりバランスの取れた表現を生み出します。
提案手法は,様々なデータセットやタスク設定に対して,強い一般化性を示す。
論文 参考訳(メタデータ) (2023-06-03T09:19:24Z) - Riesz networks: scale invariant neural networks in a single forward pass [0.7673339435080445]
本稿では,新しいスケール不変ニューラルネットワークであるRiesz Networkを紹介する。
適用例として,コンクリートのトモグラフィー画像におけるひび割れの検出とセグメンテーションについて考察する。
次に, 広範囲のひび割れ幅を特徴とする, シミュレーション画像と実断層画像のセグメンテーション性能を検証する。
論文 参考訳(メタデータ) (2023-05-08T12:39:49Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Just a Matter of Scale? Reevaluating Scale Equivariance in Convolutional
Neural Networks [3.124871781422893]
畳み込みネットワークはスケールの変動に不変ではなく、異なる大きさのオブジェクトに一般化できない。
重みを並列に共有した再スケールカーネルを多数適用し,最も適切なカーネルを選択するモデル群を新たに導入する。
STIRにおける実験結果から,既存の手法と提案手法の両方が,標準的な畳み込みよりもスケール全体の一般化を向上できることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T15:27:05Z) - Scale Equivariant U-Net [0.0]
本稿では、スケールと翻訳の半群にほぼ同値なU-Netであるスケール等変U-Net(SEU-Net)を紹介する。
提案したSEU-Netは, セルセグメンテーションのためのOxford Pet IIITとDIC-C2DH-HeLaデータセットのセグメンテーションのために訓練されている。
U-Net がスケールジッタリングで訓練された場合でも、U-Net と比較して、目に見えないスケールへの一般化基準が劇的に改善される。
論文 参考訳(メタデータ) (2022-10-10T09:19:40Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Feature Generation for Long-tail Classification [36.186909933006675]
そこで本研究では,テールカテゴリーの分布を推定して有意義な特徴を生成する方法を示す。
また、t-SNE視覚化を用いて生成した特徴の質的分析を行い、末尾クラス分布のキャリブレーションに最も近い隣人を解析する。
論文 参考訳(メタデータ) (2021-11-10T21:34:29Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。