論文の概要: MetaLab: Few-Shot Game Changer for Image Recognition
- arxiv url: http://arxiv.org/abs/2507.22057v1
- Date: Tue, 29 Jul 2025 17:57:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.848774
- Title: MetaLab: Few-Shot Game Changer for Image Recognition
- Title(参考訳): MetaLab:画像認識のためのFew-Shotゲームチェンジャー
- Authors: Chaofei Qi, Zhitai Liu, Jianbin Qiu,
- Abstract要約: 我々は,CIELab-Guided Coherent Meta-Learning (MetaLab) という画像認識手法を提案する。
私たちのMetaLabは、CIELabの色空間のドメイン変換が可能なLabNetと、明度グラフと色グラフの相互学習を容易にする一貫性のあるLabGNNの2つの協調ニューラルネットワークで構成されています。
実験はすべて、MetaLabが99%の精度でアプローチできることを示しました。
- 参考スコア(独自算出の注目度): 18.73626982790281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Difficult few-shot image recognition has significant application prospects, yet remaining the substantial technical gaps with the conventional large-scale image recognition. In this paper, we have proposed an efficient original method for few-shot image recognition, called CIELab-Guided Coherent Meta-Learning (MetaLab). Structurally, our MetaLab comprises two collaborative neural networks: LabNet, which can perform domain transformation for the CIELab color space and extract rich grouped features, and coherent LabGNN, which can facilitate mutual learning between lightness graph and color graph. For sufficient certification, we have implemented extensive comparative studies on four coarse-grained benchmarks, four fine-grained benchmarks, and four cross-domain few-shot benchmarks. Specifically, our method can achieve high accuracy, robust performance, and effective generalization capability with one-shot sample per class. Overall, all experiments have demonstrated that our MetaLab can approach 99\% $\uparrow\downarrow$ accuracy, reaching the human recognition ceiling with little visual deviation.
- Abstract(参考訳): 難易度な少数ショット画像認識は応用可能性が高いが、従来の大規模画像認識とはかなりの技術的ギャップが残っている。
本稿では,CIELab-Guided Coherent Meta-Learning (MetaLab) という画像認識手法を提案する。
構造的には、私たちのMetaLabは、CIELab色空間のドメイン変換を実行し、リッチなグループ化された特徴を抽出できるLabNetと、明度グラフと色グラフの相互学習を容易にするコヒーレントなLabGNNの2つの協調ニューラルネットワークで構成されています。
十分な認証を得るために、我々は4つの粗粒度ベンチマーク、4つの細粒度ベンチマーク、4つのクロスドメイン数ショットベンチマークについて広範な比較研究を実施してきた。
具体的には,クラスごとの単発サンプルを用いた高精度,頑健な性能,効率的な一般化を実現する。
全体的に、私たちのMetaLabは99\%$\uparrow\downarrow$の精度で人間の認識天井に近づき、視覚的な偏差はほとんどありません。
関連論文リスト
- Synergy and Diversity in CLIP: Enhancing Performance Through Adaptive Backbone Ensembling [58.50618448027103]
コントラスト言語-画像事前学習(CLIP)は画像表現学習において顕著な手法である。
本稿では,CLIPを訓練した視覚バックボーンの違いについて検討する。
方法によって、最高の単一のバックボーンよりも39.1%の精度が著しく向上する。
論文 参考訳(メタデータ) (2024-05-27T12:59:35Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - A Dual-branch Self-supervised Representation Learning Framework for
Tumour Segmentation in Whole Slide Images [12.961686610789416]
自己教師付き学習(SSL)は、スライドイメージ全体のアノテーションオーバーヘッドを低減する代替ソリューションとして登場した。
これらのSSLアプローチは、識別画像の特徴を学習する際の性能を制限するマルチレゾリューションWSIを扱うために設計されていない。
マルチ解像度WSIから画像特徴を効果的に学習できるDSF-WSI(Dual-branch SSL Framework for WSI tumour segmentation)を提案する。
論文 参考訳(メタデータ) (2023-03-20T10:57:28Z) - Transductive Decoupled Variational Inference for Few-Shot Classification [2.538209532048867]
ほとんどショットの学習は、この機能をマシンに渡すための努力だ。
少数ショット分類のための新しい変分推論ネットワーク(TRIDENT)を提案する。
我々は、新しいアテンションベースのトランスダクティブ特徴抽出モジュール(AttFEXと呼ぶ)を使用して、クエリと数ショットタスクのサポート両方の情報を利用する。
論文 参考訳(メタデータ) (2022-08-22T19:27:09Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Augmented Bi-path Network for Few-shot Learning [16.353228724916505]
マルチスケールでグローバル機能とローカル機能を比較するために,Augmented Bi-path Network (ABNet)を提案する。
具体的には、各画像の局所的な特徴として、有能なパッチを抽出し、埋め込みする。その後、モデルは、より堅牢な機能を強化するために、その機能を強化することを学習する。
論文 参考訳(メタデータ) (2020-07-15T11:13:38Z) - ITSELF: Iterative Saliency Estimation fLexible Framework [68.8204255655161]
機密度オブジェクト検出は、画像で最も顕著なオブジェクトを推定する。
我々は,ユーザ定義の仮定をモデルに追加できる,スーパーピクセルベースのITELF(ITSELF)を提案する。
ITSELFを5つのメトリクスと6つのデータセットで2つの最先端の精度推定器と比較する。
論文 参考訳(メタデータ) (2020-06-30T16:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。