論文の概要: Convolutional Fine-Grained Classification with Self-Supervised Target
Relation Regularization
- arxiv url: http://arxiv.org/abs/2208.01997v1
- Date: Wed, 3 Aug 2022 11:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:47:24.398829
- Title: Convolutional Fine-Grained Classification with Self-Supervised Target
Relation Regularization
- Title(参考訳): 自己教師付き目標関係正規化による畳み込み細粒度分類
- Authors: Kangjun Liu, Ke Chen, Kui Jia
- Abstract要約: 本稿では,動的ターゲット関係グラフ(DTRG)を新たに導入する。
クラスレベルの特徴中心のオンライン計算は、表現空間におけるカテゴリ間距離を生成するように設計されている。
提案したターゲットグラフは,表現学習におけるデータの分散性と不均衡を緩和する。
- 参考スコア(独自算出の注目度): 34.8793946023412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained visual classification can be addressed by deep representation
learning under supervision of manually pre-defined targets (e.g., one-hot or
the Hadamard codes). Such target coding schemes are less flexible to model
inter-class correlation and are sensitive to sparse and imbalanced data
distribution as well. In light of this, this paper introduces a novel target
coding scheme -- dynamic target relation graphs (DTRG), which, as an auxiliary
feature regularization, is a self-generated structural output to be mapped from
input images. Specifically, online computation of class-level feature centers
is designed to generate cross-category distance in the representation space,
which can thus be depicted by a dynamic graph in a non-parametric manner.
Explicitly minimizing intra-class feature variations anchored on those
class-level centers can encourage learning of discriminative features.
Moreover, owing to exploiting inter-class dependency, the proposed target
graphs can alleviate data sparsity and imbalanceness in representation
learning. Inspired by recent success of the mixup style data augmentation, this
paper introduces randomness into soft construction of dynamic target relation
graphs to further explore relation diversity of target classes. Experimental
results can demonstrate the effectiveness of our method on a number of diverse
benchmarks of multiple visual classification tasks, especially achieving the
state-of-the-art performance on popular fine-grained object benchmarks and
superior robustness against sparse and imbalanced data. Source codes are made
publicly available at https://github.com/AkonLau/DTRG.
- Abstract(参考訳): きめ細かい視覚的分類は、手動で定義された目標(例えば、one-hot や the hadamard codes)の監督の下で、深い表現学習によって対処できる。
このようなターゲット符号化方式はクラス間相関のモデル化には柔軟性が低く、スパースや不均衡なデータ分布にも敏感である。
そこで本稿では,動的ターゲット関係グラフ (DTRG) を用いた新たなターゲット符号化方式を提案する。
具体的には、クラスレベルの特徴中心のオンライン計算は、表現空間におけるカテゴリ間距離を生成するように設計されており、非パラメトリックな方法で動的グラフで表現することができる。
クラスレベルのセンターに固定されたクラス内特徴の明示的な最小化は、差別的特徴の学習を促進する。
さらに,クラス間依存性の活用により,提案する対象グラフは,表現学習におけるデータのスパーシティと不均衡を軽減できる。
本稿では,最近のmixupスタイルデータ拡張の成功に触発されて,動的対象関係グラフのソフトな構成にランダム性を導入し,対象クラスの関係の多様性をさらに探究する。
実験により,複数の視覚分類タスクの多種多様なベンチマークにおいて,本手法の有効性を示すことができた。
ソースコードはhttps://github.com/AkonLau/DTRGで公開されている。
関連論文リスト
- Self-Supervised Conditional Distribution Learning on Graphs [15.730933577970687]
本稿では,従来の特徴に対して,弱い特徴と強く拡張された特徴の条件分布を整列するエンドツーエンドグラフ表現学習モデルを提案する。
このアライメントは、グラフ構造化データ拡張による本質的な意味情報の破壊のリスクを効果的に低減する。
論文 参考訳(メタデータ) (2024-11-20T07:26:36Z) - Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Enhancing Fine-Grained Visual Recognition in the Low-Data Regime Through Feature Magnitude Regularization [23.78498670529746]
抽出した特徴量の均等分布を保証するために正規化手法を導入する。
その明らかな単純さにもかかわらず、我々の手法は様々な細粒度視覚認識データセットに対して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-03T07:32:46Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。