論文の概要: DCSCR: A Class-Specific Collaborative Representation based Network for Image Set Classification
- arxiv url: http://arxiv.org/abs/2508.12745v1
- Date: Mon, 18 Aug 2025 09:09:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.144349
- Title: DCSCR: A Class-Specific Collaborative Representation based Network for Image Set Classification
- Title(参考訳): DCSCR:画像集合分類のためのクラス特異的協調表現に基づくネットワーク
- Authors: Xizhan Gao, Wei Hu,
- Abstract要約: 本稿では,Deep Class-specific Collaborative Representation (DCSCR) ネットワークと呼ばれる,数発のICCアプローチを提案する。
DCSCRは、完全な畳み込み機能抽出モジュール、グローバル機能学習モジュール、クラス固有の協調表現に基づくメートル法学習モジュールから構成される。
提案手法の有効性を実証するために、よく知られた数発のICCデータセットの実験を行った。
- 参考スコア(独自算出の注目度): 14.11016012242278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image set classification (ISC), which can be viewed as a task of comparing similarities between sets consisting of unordered heterogeneous images with variable quantities and qualities, has attracted growing research attention in recent years. How to learn effective feature representations and how to explore the similarities between different image sets are two key yet challenging issues in this field. However, existing traditional ISC methods classify image sets based on raw pixel features, ignoring the importance of feature learning. Existing deep ISC methods can learn deep features, but they fail to adaptively adjust the features when measuring set distances, resulting in limited performance in few-shot ISC. To address the above issues, this paper combines traditional ISC methods with deep models and proposes a novel few-shot ISC approach called Deep Class-specific Collaborative Representation (DCSCR) network to simultaneously learn the frame- and concept-level feature representations of each image set and the distance similarities between different sets. Specifically, DCSCR consists of a fully convolutional deep feature extractor module, a global feature learning module, and a class-specific collaborative representation-based metric learning module. The deep feature extractor and global feature learning modules are used to learn (local and global) frame-level feature representations, while the class-specific collaborative representation-based metric learning module is exploit to adaptively learn the concept-level feature representation of each image set and thus obtain the distance similarities between different sets by developing a new CSCR-based contrastive loss function. Extensive experiments on several well-known few-shot ISC datasets demonstrate the effectiveness of the proposed method compared with some state-of-the-art image set classification algorithms.
- Abstract(参考訳): 画像集合分類(ISC)は、不規則な不均一な画像からなる集合と様々な量と品質の類似性を比較するタスクであり、近年研究の注目を集めている。
効果的な特徴表現の学習方法と、異なるイメージセット間の類似性を探索する方法は、この分野において重要な2つの課題である。
しかし、既存のICC手法では、特徴学習の重要性を無視して、生の画素特徴に基づいて画像集合を分類する。
既存の深いICC手法は、深い特徴を学習できるが、セット距離を測定する際に、適応的に特徴を調整することができず、少数のICCでは性能が制限される。
そこで本研究では,従来のICC手法と深層モデルを組み合わせることで,各画像のフレームレベルの特徴表現と概念レベルの特徴表現を同時に学習する,Deep Class-specific Collaborative Representation (DCSCR)ネットワークを提案する。
具体的には、完全な畳み込み機能抽出モジュール、グローバル機能学習モジュール、クラス固有の協調表現に基づくメトリック学習モジュールから構成される。
深部特徴抽出器とグローバル特徴学習モジュールを用いてフレームレベルの特徴表現を学習し、クラス固有の協調表現に基づくメートル法学習モジュールを用いて各画像のコンセプトレベルの特徴表現を適応的に学習し、新たなCSCRベースのコントラスト損失関数を開発することにより、異なるセット間の距離類似性を得る。
いくつかのよく知られた少数ショットICCデータセットに対する大規模な実験により、提案手法の有効性を、最先端の画像集合分類アルゴリズムと比較した。
関連論文リスト
- ProtoConNet: Prototypical Augmentation and Alignment for Open-Set Few-Shot Image Classification [5.281661190732358]
オープンセットの少数ショット画像分類は、少量のラベル付きデータを使ってモデルを訓練することを目的としている。
ProtoConNetでは、さまざまなサンプルのバックグラウンド情報を組み込んで、機能空間の多様性を高めている。
2つのデータセットによる実験結果から、ProtoConNetは、数ショットシナリオでの表現学習の有効性を高めることが確認された。
論文 参考訳(メタデータ) (2025-07-16T02:20:52Z) - Semi-supervised Semantic Segmentation for Remote Sensing Images via Multi-scale Uncertainty Consistency and Cross-Teacher-Student Attention [59.19580789952102]
本稿では,RS画像セマンティックセグメンテーションタスクのための,新しい半教師付きマルチスケール不確かさとクロスTeacher-Student Attention(MUCA)モデルを提案する。
MUCAは、マルチスケールの不確実性整合正則化を導入することにより、ネットワークの異なる層における特徴写像間の整合性を制限する。
MUCAは学生ネットワークの誘導にクロス教師・学生の注意機構を使用し、学生ネットワークにより差別的な特徴表現を構築するよう誘導する。
論文 参考訳(メタデータ) (2025-01-18T11:57:20Z) - Cross-Modal Concept Learning and Inference for Vision-Language Models [31.463771883036607]
既存の微調整法では、クラス固有のテキスト記述は画像全体と一致している。
我々は、クロスモデル概念学習と推論(CCLI)と呼ばれる新しい手法を開発した。
本手法は,意味テキストの集合を用いて画像から視覚的特徴の集合を自動的に学習する。
論文 参考訳(メタデータ) (2023-07-28T10:26:28Z) - EAML: Ensemble Self-Attention-based Mutual Learning Network for Document
Image Classification [1.1470070927586016]
我々は、アンサンブルトレーニング可能なネットワークのブロックとして機能する自己アテンションベースの融合モジュールを設計する。
トレーニング段階を通して、画像とテキストの区別された特徴を同時に学習することができる。
文書画像分類を行うための自己注意に基づく融合モジュールとともに、相互学習アプローチを活用するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-11T16:05:03Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Group Based Deep Shared Feature Learning for Fine-grained Image
Classification [31.84610555517329]
共有された特徴を明示的にモデル化し、その効果を除去し、拡張された分類結果を得るための新しいディープネットワークアーキテクチャを提案する。
我々はこのフレームワークをグループベースのDeep Shared Feature Learning (GSFL)と呼び、学習したネットワークをGSFL-Netと呼ぶ。
特殊オートエンコーダの重要な利点は、多用途であり、最先端のきめ細かい特徴抽出モデルと組み合わせて、それらと一緒にトレーニングすることで、パフォーマンスを直接改善できる点である。
論文 参考訳(メタデータ) (2020-04-04T00:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。