論文の概要: CausalFSFG: Rethinking Few-Shot Fine-Grained Visual Categorization from Causal Perspective
- arxiv url: http://arxiv.org/abs/2512.21617v1
- Date: Thu, 25 Dec 2025 10:26:17 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:58:33.60436
- Title: CausalFSFG: Rethinking Few-Shot Fine-Grained Visual Categorization from Causal Perspective
- Title(参考訳): CausalFSFG: 因果的視点によるファイングラインド視覚分類の再考
- Authors: Zhiwen Yang, Jinglin Xu, Yuxin Pen,
- Abstract要約: FS-FGVC (Few-shot fine-grand visual categorization) は、サポート例が1つまたは少数ある場合、共通のスーパークラス内の様々なサブカテゴリを特定することに焦点を当てている。
バイアスデータ分布に対処するための因果推論に着想を得た新たな因果的FS-FGVC(CausalFSFG)アプローチを提案する。
- 参考スコア(独自算出の注目度): 15.302135920904083
- License:
- Abstract: Few-shot fine-grained visual categorization (FS-FGVC) focuses on identifying various subcategories within a common superclass given just one or few support examples. Most existing methods aim to boost classification accuracy by enriching the extracted features with discriminative part-level details. However, they often overlook the fact that the set of support samples acts as a confounding variable, which hampers the FS-FGVC performance by introducing biased data distribution and misguiding the extraction of discriminative features. To address this issue, we propose a new causal FS-FGVC (CausalFSFG) approach inspired by causal inference for addressing biased data distributions through causal intervention. Specifically, based on the structural causal model (SCM), we argue that FS-FGVC infers the subcategories (i.e., effect) from the inputs (i.e., cause), whereas both the few-shot condition disturbance and the inherent fine-grained nature (i.e., large intra-class variance and small inter-class variance) lead to unobservable variables that bring spurious correlations, compromising the final classification performance. To further eliminate the spurious correlations, our CausalFSFG approach incorporates two key components: (1) Interventional multi-scale encoder (IMSE) conducts sample-level interventions, (2) Interventional masked feature reconstruction (IMFR) conducts feature-level interventions, which together reveal real causalities from inputs to subcategories. Extensive experiments and thorough analyses on the widely-used public datasets, including CUB-200-2011, Stanford Dogs, and Stanford Cars, demonstrate that our CausalFSFG achieves new state-of-the-art performance. The code is available at https://github.com/PKU-ICST-MIPL/CausalFSFG_TMM.
- Abstract(参考訳): FS-FGVC (Few-shot fine-grained visual categorization) は、サポート例が1つまたは少数ある場合、共通のスーパークラス内の様々なサブカテゴリを特定することに焦点を当てている。
既存の手法の多くは、抽出した特徴を識別的部分レベルの詳細で豊かにすることにより、分類精度を高めることを目的としている。
しかし、彼らはしばしば、支援サンプルの集合が共起変数として機能し、バイアスデータ分布を導入して差別的特徴の抽出を誤解することでFS-FGVCのパフォーマンスを損なうという事実を見落としている。
この問題に対処するために,因果的介入によるバイアスデータ分布に対処するための因果的推論に着想を得た新たな因果的FS-FGVC(CausalFSFG)アプローチを提案する。
具体的には、構造因果モデル(SCM)に基づいて、FS-FGVCは入力(すなわち、原因)からサブカテゴリ(効果)を推論するのに対し、わずかな条件乱れと固有のきめ細かな性質(すなわち、クラス内ばらつきとクラス間ばらつきの小さい分散)は、急激な相関をもたらす観測不可能な変数をもたらし、最終的な分類性能を損なう。
1) インターベンショナル・マルチスケール・エンコーダ (IMSE) はサンプルレベルの介入を行い、(2) インターベンショナル・マスク付き特徴再構成 (IMFR) は特徴レベルの介入を行い、入力からサブカテゴリへの真の因果関係を明らかにする。
CUB-200-2011、Stanford Dogs、Stanford Carsなど、広く使われている公開データセットに関する大規模な実験と詳細な分析は、私たちのCausalFSFGが新たな最先端のパフォーマンスを達成することを実証しています。
コードはhttps://github.com/PKU-ICST-MIPL/CausalFSFG_TMMで公開されている。
関連論文リスト
- Generalized Semantic Contrastive Learning via Embedding Side Information for Few-Shot Object Detection [52.490375806093745]
マイクロショットオブジェクト検出(FSOD)の目的は、少数のトレーニングサンプルで新しいオブジェクトを検出することである。
本稿では,特徴空間とサンプル視点から得られる負の影響を緩和する側面情報を紹介する。
我々のモデルは従来の最先端手法よりも優れており、ほとんどのショット/スプリットにおけるFSODの能力は大幅に向上している。
論文 参考訳(メタデータ) (2025-04-09T17:24:05Z) - Causally-Aware Unsupervised Feature Selection Learning [15.20376149047008]
非教師なし特徴選択(UFS)は、最近、ラベルなし高次元データの処理に有効であるとして注目されている。
従来のグラフベースの手法では、類似性グラフの構築において、非因果的特徴と因果的特徴の異なる影響を考慮できない。
Causally-Aware UnSupErvised Feature Selection Learning (CAUSE-FS)と呼ばれる新しいUFS法を提案する。
論文 参考訳(メタデータ) (2024-10-16T04:41:38Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - PatchMix Augmentation to Identify Causal Features in Few-shot Learning [55.64873998196191]
少ないショット学習は、十分なカテゴリをラベル付けしたデータに基づいて学習した知識を、少ない既知の情報を持つ新しいカテゴリに転送することを目的としている。
我々はPatchMixと呼ばれる新しいデータ拡張戦略を提案し、この急激な依存関係を壊すことができる。
このような拡張メカニズムが,既存のメカニズムと異なり,因果的特徴を識別可能であることを示す。
論文 参考訳(メタデータ) (2022-11-29T08:41:29Z) - R2-Trans:Fine-Grained Visual Categorization with Redundancy Reduction [21.11038841356125]
細粒度視覚分類(FGVC)は、クラス内の大きな多様性と微妙なクラス間差が主な課題である類似のサブカテゴリを識別することを目的としている。
本稿では,FGVCに対する新たなアプローチを提案する。FGVCは,環境条件における部分的かつ十分な識別情報を同時に利用でき,また,対象物に対するクラストークンにおける冗長情報を圧縮することができる。
論文 参考訳(メタデータ) (2022-04-21T13:35:38Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Generalized Few-shot Semantic Segmentation [68.69434831359669]
本稿では,GFS-Seg(Generalized Few-Shot Semantic)と呼ばれる新しいベンチマークを導入する。
GFS-セグにおいて、先行する最先端の一般化が不足していることを示す最初の研究である。
本研究では,1)支援サンプルから共起前の知識を活用すること,2)各クエリ画像の内容に基づいて条件付き情報に動的に拡張することにより,性能を著しく向上するコンテキスト認識型プロトタイプ学習(CAPL)を提案する。
論文 参考訳(メタデータ) (2020-10-11T10:13:21Z) - TOAN: Target-Oriented Alignment Network for Fine-Grained Image
Categorization with Few Labeled Samples [25.68199820110267]
本稿では,対象のクエリイメージとサポートクラスとの関係を詳細に把握するために,TOAN(Target-Oriented Alignment Network)を提案する。
各サポート画像の特徴は、埋め込み特徴空間内のクエリ特徴と一致するように変換され、各カテゴリ内での差異を明示的に低減する。
論文 参考訳(メタデータ) (2020-05-28T07:48:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。