論文の概要: Hybrid Feature Collaborative Reconstruction Network for Few-Shot Fine-Grained Image Classification
- arxiv url: http://arxiv.org/abs/2407.02123v1
- Date: Tue, 2 Jul 2024 10:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 15:55:01.103512
- Title: Hybrid Feature Collaborative Reconstruction Network for Few-Shot Fine-Grained Image Classification
- Title(参考訳): Few-Shot Fine-Grained Image Classificationのためのハイブリッド機能協調再構成ネットワーク
- Authors: Shulei Qiu, Wanqi Yang, Ming Yang,
- Abstract要約: 画像分類のためのHFCR-Net(Hybrid Feature Collaborative Restruction Network)を設計する。
チャネルの特徴と空間的特徴を融合させ,クラス間差を増大させる。
広範に使われている3つのきめ細かいデータセットに対する実験は、我々のアプローチの有効性と優位性を示している。
- 参考スコア(独自算出の注目度): 6.090855292102877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our research focuses on few-shot fine-grained image classification, which faces two major challenges: appearance similarity of fine-grained objects and limited number of samples. To preserve the appearance details of images, traditional feature reconstruction networks usually enhance the representation ability of key features by spatial feature reconstruction and minimizing the reconstruction error. However, we find that relying solely on a single type of feature is insufficient for accurately capturing inter-class differences of fine-grained objects in scenarios with limited samples. In contrast, the introduction of channel features provides additional information dimensions, aiding in better understanding and distinguishing the inter-class differences of fine-grained objects. Therefore, in this paper, we design a new Hybrid Feature Collaborative Reconstruction Network (HFCR-Net) for few-shot fine-grained image classification, which includes a Hybrid Feature Fusion Process (HFFP) and a Hybrid Feature Reconstruction Process (HFRP). In HFRP, we fuse the channel features and the spatial features. Through dynamic weight adjustment, we aggregate the spatial dependencies between arbitrary two positions and the correlations between different channels of each image to increase the inter-class differences. Additionally, we introduce the reconstruction of channel dimension in HFRP. Through the collaborative reconstruction of channel dimension and spatial dimension, the inter-class differences are further increased in the process of support-to-query reconstruction, while the intra-class differences are reduced in the process of query-to-support reconstruction. Ultimately, our extensive experiments on three widely used fine-grained datasets demonstrate the effectiveness and superiority of our approach.
- Abstract(参考訳): 本研究は,微細な物体の外観的類似性と限られたサンプル数との2つの大きな課題に直面する,少数のきめ細かい画像分類に焦点をあてる。
画像の外観を保存するために、従来の特徴再構成ネットワークは通常、空間的特徴再構成と再構成誤差の最小化により、重要な特徴の表現能力を向上する。
しかし、単一タイプの機能のみに依存すると、限られたサンプルを持つシナリオにおいて、きめ細かいオブジェクトのクラス間の違いを正確に捉えるには不十分であることがわかった。
対照的に、チャネル機能の導入は、細粒度オブジェクトのクラス間の違いをよりよく理解し、区別するのに役立つ追加情報ディメンションを提供する。
そこで本稿では,HFFP(Hybrid Feature Fusion Process)とHFRP(Hybrid Feature Restruction Process)を含む,画像分類のためのHFCR-Net(Hybrid Feature Collaborative Restruction Network)を新たに設計する。
HFRPでは,チャネルの特徴と空間的特徴を融合させる。
動的重み調整により、任意の2つの位置間の空間的依存関係と各画像の異なるチャンネル間の相関を集約し、クラス間差を増大させる。
さらに,HFRPにおけるチャネル次元の再構成についても紹介する。
チャネル次元と空間次元の協調的再構成により,サポート・ツー・クエリ・再構築の過程でクラス間差がさらに増加し,クエリ・ツー・サポート・再構築の過程でクラス内差が減少する。
最終的に、広く使われている3つのきめ細かいデータセットに関する広範な実験は、我々のアプローチの有効性と優位性を示している。
関連論文リスト
- WTDUN: Wavelet Tree-Structured Sampling and Deep Unfolding Network for Image Compressed Sensing [51.94493817128006]
マルチスケールウェーブレットサブバンド上で直接動作するWTDUNという新しいウェーブレットドメインの深層展開フレームワークを提案する。
本手法は,ウェーブレット係数の固有間隔とマルチスケール構造を利用して,木構造によるサンプリングと再構成を実現する。
論文 参考訳(メタデータ) (2024-11-25T12:31:03Z) - Deep Diversity-Enhanced Feature Representation of Hyperspectral Images [87.47202258194719]
トポロジを改良して3次元畳み込みを補正し,上行階の高次化を図る。
また、要素間の独立性を最大化するために特徴マップに作用する新しい多様性対応正規化(DA-Reg)項を提案する。
提案したRe$3$-ConvSetとDA-Regの優位性を実証するために,様々なHS画像処理および解析タスクに適用する。
論文 参考訳(メタデータ) (2023-01-15T16:19:18Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Cross-SRN: Structure-Preserving Super-Resolution Network with Cross
Convolution [64.76159006851151]
低解像度 (LR) 画像から高解像度 (SR) 画像への復元は, 正確かつ明確である。
既存のディープラーニングは、画像の固有の構造情報をほとんど無視する。
構造情報の探索と保存を行う階層的特徴利用ネットワークを設計する。
論文 参考訳(メタデータ) (2022-01-05T05:15:01Z) - Hierarchical Deep CNN Feature Set-Based Representation Learning for
Robust Cross-Resolution Face Recognition [59.29808528182607]
クロスリゾリューション顔認識(CRFR)は、インテリジェントな監視およびバイオメトリックフォレンジックにおいて重要である。
既存の浅層学習と深層学習に基づく手法は、HR-LR対を共同特徴空間にマッピングすることに焦点を当てている。
本研究では,多レベル深層畳み込みニューラルネットワーク(CNN)の機能を完全に活用し,堅牢なCRFRを実現することを目的とする。
論文 参考訳(メタデータ) (2021-03-25T14:03:42Z) - Multi-Scale Cascading Network with Compact Feature Learning for
RGB-Infrared Person Re-Identification [35.55895776505113]
マルチスケールパートアウェアカスケードフレームワーク(MSPAC)は、マルチスケールの細かい機能を部分からグローバルに集約することによって策定されます。
したがって、クロスモダリティ相関は、特徴的モダリティ不変な特徴学習のための顕著な特徴を効率的に探索することができる。
論文 参考訳(メタデータ) (2020-12-12T15:39:11Z) - Learning Disentangled Feature Representation for Hybrid-distorted Image
Restoration [41.99534893489878]
本稿では,ハイブリッド歪みの特徴レベル分割処理を実現するために,Distangled Feature Learningの概念を導入する。
具体的には,異なる歪みの特徴表現を異なるチャネルに分散するFDM(Feature Disentanglement Module)を提案する。
また,歪み表現を適応的にフィルタリングする機能集約モジュール (FAM) を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:43:40Z) - AdaptiveWeighted Attention Network with Camera Spectral Sensitivity
Prior for Spectral Reconstruction from RGB Images [22.26917280683572]
スペクトル再構成のための適応重み付き注意ネットワーク(AWAN)を提案する。
AWCAおよびPSNLモジュールは、チャネルワイドな特徴応答を再配置するために開発された。
NTIRE 2020 Spectral Reconstruction Challengeでは、クリーントラックで1位、リアルワールドで3位を獲得しました。
論文 参考訳(メタデータ) (2020-05-19T09:21:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。