論文の概要: Shallow Deep Learning Can Still Excel in Fine-Grained Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2507.22041v1
- Date: Tue, 29 Jul 2025 17:45:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.778955
- Title: Shallow Deep Learning Can Still Excel in Fine-Grained Few-Shot Learning
- Title(参考訳): 難解な深層学習は、ファウショット学習でExcelをいまだに維持できる
- Authors: Chaofei Qi, Chao Ye, Zhitai Liu, Weiyang Lin, Jianbin Qiu,
- Abstract要約: 近縁な位置対応機能クラスタリングモジュールを備えた位置対応コンステレーションネットワーク(LCN-4)を導入する。
LCN-4 は ConvNet-4 ベースの State-of-the-Arts よりも優れており、ほとんどの ResNet12 ベースのメソッドと同等か優れている。
- 参考スコア(独自算出の注目度): 18.432044059985152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has witnessed the extensive utilization across a wide spectrum of domains, including fine-grained few-shot learning (FGFSL) which heavily depends on deep backbones. Nonetheless, shallower deep backbones such as ConvNet-4, are not commonly preferred because they're prone to extract a larger quantity of non-abstract visual attributes. In this paper, we initially re-evaluate the relationship between network depth and the ability to fully encode few-shot instances, and delve into whether shallow deep architecture could effectuate comparable or superior performance to mainstream deep backbone. Fueled by the inspiration from vanilla ConvNet-4, we introduce a location-aware constellation network (LCN-4), equipped with a cutting-edge location-aware feature clustering module. This module can proficiently encoder and integrate spatial feature fusion, feature clustering, and recessive feature location, thereby significantly minimizing the overall loss. Specifically, we innovatively put forward a general grid position encoding compensation to effectively address the issue of positional information missing during the feature extraction process of specific ordinary convolutions. Additionally, we further propose a general frequency domain location embedding technique to offset for the location loss in clustering features. We have carried out validation procedures on three representative fine-grained few-shot benchmarks. Relevant experiments have established that LCN-4 notably outperforms the ConvNet-4 based State-of-the-Arts and achieves performance that is on par with or superior to most ResNet12-based methods, confirming the correctness of our conjecture.
- Abstract(参考訳): 深層学習は、深い背骨に大きく依存するきめ細かいショットラーニング(FGFSL)など、幅広い領域で広く利用されているのを目撃している。
しかし、ConvNet-4のような浅い深いバックボーンは、多くの非抽象的な視覚属性を抽出する傾向があるため、一般的には好まれない。
本稿では,まず,ネットワークの深さと数ショットのインスタンスを完全にエンコードする能力の関係を再評価し,浅層アーキテクチャが主流の深層ボーンに匹敵する性能や優れた性能を発揮できるかどうかを考察する。
バニラ ConvNet-4 からインスピレーションを得て,近縁な位置対応特徴クラスタリングモジュールを備えた位置対応コンステレーションネットワーク (LCN-4) を導入する。
このモジュールは、空間的特徴融合、特徴クラスタリング、劣性特徴位置を巧みにエンコーダし、統合することができ、全体的な損失を著しく最小化することができる。
具体的には、特定の通常の畳み込みの特徴抽出過程において欠落する位置情報の問題を効果的に解決するために、補償を符号化する一般的なグリッド位置を革新的に提示する。
さらに,クラスタリング機能における位置損失をオフセットする一般周波数領域埋め込み手法を提案する。
我々は,3つの代表的微粒な数ショットベンチマークの検証手順を実行した。
LCN-4 は ConvNet-4 ベースの State-of-the-Arts よりも優れており、ほとんどの ResNet12 ベースの手法に匹敵する性能を達成し、我々の予想の正しさを確認している。
関連論文リスト
- LACV-Net: Semantic Segmentation of Large-Scale Point Cloud Scene via
Local Adaptive and Comprehensive VLAD [13.907586081922345]
本稿では,大規模クラウドセマンティックセグメンテーションのための,LACV-Netと呼ばれるエンドツーエンドのディープニューラルネットワークを提案する。
提案するネットワークは,1) 局所適応的特徴拡張モジュール(LAFA) を適応的に学習し,局所的文脈を拡張させる,2) 局所的特徴を多層,マルチスケール,マルチ解像度で融合させて包括的グローバル記述ベクトルを表現する,包括的VLADモジュール,3) LAFAモジュールからの適応的重みを制限してセグメント境界を効果的に最適化する集約損失関数を含む。
論文 参考訳(メタデータ) (2022-10-12T02:11:00Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - CGS-Net: Aggregating Colour, Geometry and Semantic Features for
Large-Scale Indoor Place Recognition [6.156387608994791]
大規模屋内位置認識へのアプローチとして,低レベルな色と幾何学的特徴を高レベルなセマンティック特徴で集約する手法を提案する。
我々は、RGBポイントクラウドを取り込み、ローカル機能を5つの3次元カーネルポイント畳み込み層で抽出するディープラーニングネットワークを使用している。
具体的には、セマンティックセグメンテーションタスク上でKPConv層をトレーニングし、抽出したローカル機能がセマンティックに意味があることを保証する。
論文 参考訳(メタデータ) (2022-02-04T10:51:25Z) - Ghost-dil-NetVLAD: A Lightweight Neural Network for Visual Place Recognition [3.6249801498927923]
本稿では,GhostCNNと呼ばれるフロントエンド認識モデルと学習可能なVLAD層をバックエンドとして構成した,軽量な教師付きエンドツーエンドニューラルネットワークを提案する。
提案する軽量モデルをさらに強化するため,Ghostモジュールに拡張畳み込みを加えて,より空間的意味情報を含む特徴を抽出し,精度を向上する。
論文 参考訳(メタデータ) (2021-12-22T06:05:02Z) - CPFN: Cascaded Primitive Fitting Networks for High-Resolution Point
Clouds [51.47100091540298]
本稿では,グローバルおよびローカルなプリミティブ検出ネットワークの検出結果をアダプティブパッチサンプリングネットワークに依存したCPFN(Cascaded Primitive Fitting Networks)を提案する。
CPFNは、高解像度のポイントクラウドデータセット上で、最先端のSPFNのパフォーマンスを13-14%改善し、特に20-22%の微細プリミティブの検出を改善している。
論文 参考訳(メタデータ) (2021-08-31T23:27:33Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Efficient 3D Point Cloud Feature Learning for Large-Scale Place
Recognition [21.818744369503197]
視覚的位置認識のためのグローバルディスクリプタを構築するために,効率的なポイントクラウド学習ネットワーク(EPC-Net)を開発した。
提案手法は,フレームあたりのパラメータ,FLOP,ランタイムを低減して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-01-07T05:15:31Z) - SOE-Net: A Self-Attention and Orientation Encoding Network for Point
Cloud based Place Recognition [50.9889997200743]
我々は、自己アテンション・指向性符号化ネットワーク(SOE-Net)を用いて、ポイントクラウドデータから位置認識する問題に取り組む。
SOE-Netは、ポイント間の関係を完全に探求し、長距離コンテキストをポイントワイドなローカル記述子に組み込む。
様々なベンチマークデータセットの実験では、現在の最先端アプローチよりも提案したネットワークの性能が優れていることが示されている。
論文 参考訳(メタデータ) (2020-11-24T22:28:25Z) - Multi-scale Attention U-Net (MsAUNet): A Modified U-Net Architecture for
Scene Segmentation [1.713291434132985]
画像からコンテキスト情報を用いたシーンセグメンテーションのためのマルチスケールアテンションネットワークを提案する。
このネットワークは、局所的な特徴をグローバルな特徴にマップし、精度を向上し、識別画像領域を強調する。
我々はPascalVOC2012とADE20kという2つの標準データセットでモデルを評価した。
論文 参考訳(メタデータ) (2020-09-15T08:03:41Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - Weakly Supervised Attention Pyramid Convolutional Neural Network for
Fine-Grained Visual Classification [71.96618723152487]
注意ピラミッド畳み込みニューラルネットワーク(AP-CNN)について紹介する。
AP-CNNは高レベルのセマンティックと低レベルの詳細な特徴表現の両方を学ぶ。
追加のバウンディングボックス/パートアノテーションを必要とせずに、エンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2020-02-09T12:33:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。