論文の概要: Global Adaptive Filtering Layer for Computer Vision
- arxiv url: http://arxiv.org/abs/2010.01177v4
- Date: Wed, 4 Aug 2021 15:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:28:09.181330
- Title: Global Adaptive Filtering Layer for Computer Vision
- Title(参考訳): コンピュータビジョンのためのグローバル適応フィルタリング層
- Authors: Viktor Shipitsin, Iaroslav Bespalov, Dmitry V. Dylov
- Abstract要約: 我々は、コンピュータビジョンタスクを実行するベースニューラルネットワークの重みとともに、各画像に対して最適な周波数フィルタを「学習」するための、普遍的な適応型ニューラルネットワーク層を考案した。
提案手法は、空間領域のソース画像を取得し、周波数領域から最適な周波数を自動的に選択し、逆変換画像をメインニューラルネットワークに送信する。
ライトネットワークがパフォーマンス指標を著しく向上させるのに対して、適応層がメインアーキテクチャと並行して"学習"できる場合、重層トレーニングはより高速に収束する。
- 参考スコア(独自算出の注目度): 2.2758845733923687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We devise a universal adaptive neural layer to "learn" optimal frequency
filter for each image together with the weights of the base neural network that
performs some computer vision task. The proposed approach takes the source
image in the spatial domain, automatically selects the best frequencies from
the frequency domain, and transmits the inverse-transform image to the main
neural network. Remarkably, such a simple add-on layer dramatically improves
the performance of the main network regardless of its design. We observe that
the light networks gain a noticeable boost in the performance metrics; whereas,
the training of the heavy ones converges faster when our adaptive layer is
allowed to "learn" alongside the main architecture. We validate the idea in
four classical computer vision tasks: classification, segmentation, denoising,
and erasing, considering popular natural and medical data benchmarks.
- Abstract(参考訳): 本稿では,コンピュータビジョンタスクを実行するベースニューラルネットワークの重みと合わせて,画像毎に最適な周波数フィルタを"学習"するために,ユニバーサル適応型ニューラルネットワーク層を考案する。
提案手法は、空間領域のソース画像を取得し、周波数領域から最適な周波数を自動的に選択し、逆変換画像をメインニューラルネットワークに送信する。
驚くべきことに、このような単純なアドオン層は、設計に関わらず、メインネットワークのパフォーマンスを劇的に改善します。
我々は、光ネットワークがパフォーマンスメトリクスを著しく向上させるのを観察し、一方、我々の適応層がメインアーキテクチャと共に"学習"できると、重いネットワークのトレーニングはより高速に収束する。
一般的な自然データや医療データベンチマークを考慮した4つの古典的なコンピュータビジョンタスク(分類、セグメンテーション、推論、消去)でそのアイデアを検証する。
関連論文リスト
- On the universality of neural encodings in CNNs [5.064404027153094]
学習された固有ベクトルは、VGG型ネットワークの様々な層に対して、異なる自然画像データセットにまたがって普遍的であることを示す。
彼らは、より基本的なレベルで、トランスファーラーニングの成功を説明する。
論文 参考訳(メタデータ) (2024-09-28T21:30:25Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - A Scalable Walsh-Hadamard Regularizer to Overcome the Low-degree
Spectral Bias of Neural Networks [79.28094304325116]
任意の関数を学習するニューラルネットワークの能力にもかかわらず、勾配降下によって訓練されたモデルは、しばしばより単純な関数に対するバイアスを示す。
我々は、この低度周波数に対するスペクトルバイアスが、現実のデータセットにおけるニューラルネットワークの一般化を実際にいかに損なうかを示す。
本稿では,ニューラルネットワークによる高次周波数学習を支援する,スケーラブルな機能正規化手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:06:01Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Increasing the Accuracy of a Neural Network Using Frequency Selective
Mesh-to-Grid Resampling [4.211128681972148]
ニューラルネットワークの入力データの処理にFSMR(Keypoint frequency selective mesh-to-grid resampling)を提案する。
ネットワークアーキテクチャや分類タスクによって、トレーニング中のFSMRの適用は学習プロセスに役立ちます。
ResNet50とOxflower17データセットの分類精度は最大4.31ポイント向上できる。
論文 参考訳(メタデータ) (2022-09-28T21:34:47Z) - Frequency Dropout: Feature-Level Regularization via Randomized Filtering [24.53978165468098]
深層畳み込みニューラルネットワークは、トレーニング信号から急激な相関を拾うことができる。
本稿では、畳み込みニューラルネットワークが周波数固有の画像特徴を学習するのを防ぐためのトレーニング戦略である周波数ドロップアウトを提案する。
提案手法は,予測精度の向上だけでなく,ドメインシフトに対する堅牢性の向上も示唆している。
論文 参考訳(メタデータ) (2022-09-20T16:42:21Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Frequency learning for image classification [1.9336815376402716]
本稿では、トレーニング可能な周波数フィルタからなる入力画像のフーリエ変換を探索する新しい手法を提案する。
画像ブロックの周波数領域表現からグローバル特徴とローカル特徴の両方を学習するスライシング手法を提案する。
論文 参考訳(メタデータ) (2020-06-28T00:32:47Z) - Large-scale spatiotemporal photonic reservoir computer for image
classification [0.8701566919381222]
本稿では,手書き桁の分類を行うために,フィードフォワードとリカレントニューラルネットワークを実装するためのスケーラブルなフォトニックアーキテクチャを提案する。
実験では、既製の光学部品と電子部品を利用して、現在16,384ノードのネットワークサイズを実現している。
論文 参考訳(メタデータ) (2020-04-06T10:22:31Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。