論文の概要: Attack is Good Augmentation: Towards Skeleton-Contrastive Representation
Learning
- arxiv url: http://arxiv.org/abs/2304.04023v1
- Date: Sat, 8 Apr 2023 14:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 18:17:23.032668
- Title: Attack is Good Augmentation: Towards Skeleton-Contrastive Representation
Learning
- Title(参考訳): 攻撃は強化である:骨格-対照的表現学習へ向けて
- Authors: Binqian Xu, Xiangbo Shu, Rui Yan, Guo-Sen Xie, Yixiao Ge, Mike Zheng
Shou
- Abstract要約: 本稿では, 強正な特徴と強負な特徴とを対比する新たな攻撃・拡張混合比較学習法 (A$2$MC) を提案する。
2$MCでは、アタック・オーグメンテーション(Att-Aug)は骨格の標的および未標的の摂動を協調的に行うように設計されている。
一方、PNM(Positive-Negative Mixer)は、ハードなネガティブな特徴とネガティブな特徴を混合してハードなネガティブな特徴を生成する。
- 参考スコア(独自算出の注目度): 41.0287770402969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning, relying on effective positive and negative sample
pairs, is beneficial to learn informative skeleton representations in
unsupervised skeleton-based action recognition. To achieve these positive and
negative pairs, existing weak/strong data augmentation methods have to randomly
change the appearance of skeletons for indirectly pursuing semantic
perturbations. However, such approaches have two limitations: 1) solely
perturbing appearance cannot well capture the intrinsic semantic information of
skeletons, and 2) randomly perturbation may change the original
positive/negative pairs to soft positive/negative ones. To address the above
dilemma, we start the first attempt to explore an attack-based augmentation
scheme that additionally brings in direct semantic perturbation, for
constructing hard positive pairs and further assisting in constructing hard
negative pairs. In particular, we propose a novel Attack-Augmentation
Mixing-Contrastive learning (A$^2$MC) to contrast hard positive features and
hard negative features for learning more robust skeleton representations. In
A$^2$MC, Attack-Augmentation (Att-Aug) is designed to collaboratively perform
targeted and untargeted perturbations of skeletons via attack and augmentation
respectively, for generating high-quality hard positive features. Meanwhile,
Positive-Negative Mixer (PNM) is presented to mix hard positive features and
negative features for generating hard negative features, which are adopted for
updating the mixed memory banks. Extensive experiments on three public datasets
demonstrate that A$^2$MC is competitive with the state-of-the-art methods.
- Abstract(参考訳): 効果的な正と負のサンプルペアに依存するコントラスト学習は、教師なし骨格に基づく行動認識における情報的骨格表現の学習に有用である。
これらの正と負のペアを達成するために、既存の弱い/強いデータ拡張法は、間接的に意味的摂動を追求するための骨格の外観をランダムに変更する必要がある。
しかし、そのようなアプローチには2つの制限がある。
1)外見のみの摂動は、骨格の本質的な意味情報をうまく捉えられず、
2) ランダムな摂動は, 元の正負対を軟正負対に変える。
上記のジレンマに対処するために,我々は,直接的意味的摂動,硬い正のペアの構築,さらに硬い負のペアの構築を支援する攻撃に基づく拡張スキームを探求する最初の試みを開始する。
特に,より強固なスケルトン表現を学習するために,ハードポジティブな特徴とハードネガティブな特徴を対比する,新しい攻撃-指示混合-矛盾学習(a$^2$mc)を提案する。
a$^2$mcにおいて、att-aug(att-aug)は、攻撃と増強によって、それぞれ標的と目標外の骨格の摂動を協調して行い、高品質なハードポジティブな特徴を生み出すように設計されている。
一方、PNM(Positive-Negative Mixer)は、混合メモリバンクの更新に使用される、強正の特徴と負の特徴を混合する。
3つの公開データセットに対する大規模な実験により、A$^2$MCは最先端の手法と競合することを示した。
関連論文リスト
- Topology Reorganized Graph Contrastive Learning with Mitigating Semantic Drift [28.83750578838018]
グラフコントラスト学習(GCL)は、グラフにおけるノード表現学習に有効なパラダイムである。
対照的な視点の多様性を高めるために,現在のGCLを補うための2つの単純かつ効果的なグローバルトポロジ的拡張を提案する。
論文 参考訳(メタデータ) (2024-07-23T13:55:33Z) - Deep Contrastive Multi-view Clustering under Semantic Feature Guidance [8.055452424643562]
本稿では,Semantic Feature Guide (DCMCS) の下で,Deep Contrastive Multi-view Clustering というマルチビュークラスタリングフレームワークを提案する。
意味的類似性によって重み付けされたインスタンスレベルのコントラスト損失を最小化することにより、DCMCSは偽陰対間のコントラストの傾きを適応的に弱める。
いくつかの公開データセットの実験結果は、提案したフレームワークが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2024-03-09T02:33:38Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Identical and Fraternal Twins: Fine-Grained Semantic Contrastive
Learning of Sentence Representations [6.265789210037749]
コントラスト学習フレームワークのIdentical Twins と Fraternal Twins を導入する。
また,提案したツインズ・ロスの有効性を証明するために,概念実証実験と対照的な目的を組み合わせる。
論文 参考訳(メタデータ) (2023-07-20T15:02:42Z) - HaLP: Hallucinating Latent Positives for Skeleton-based Self-Supervised
Learning of Actions [69.14257241250046]
ラベルなしの骨格に基づく行動認識のためのモデル学習のための新しいコントラスト学習手法を提案する。
私たちの重要な貢献は、単純なモジュールであるHalucinate Latent Positivesのコントラスト学習へのHalucinate HaLPです。
実験を通して、標準のコントラスト学習フレームワーク内でこれらの生成した正を使用すれば、一貫した改善がもたらされることを示す。
論文 参考訳(メタデータ) (2023-04-01T21:09:43Z) - Towards Enhancing Time Series Contrastive Learning: A Dynamic Bad Pair Mining Approach [21.55786509301811]
悪い正のペアは、対照的な学習を通して学んだ時系列表現の質を損なう可能性がある。
本稿では,悪い正のペアを確実に識別し,抑制する動的バッドペアマイニング(DBPM)アルゴリズムを提案する。
DBPMは、学習可能なパラメータなしで軽量なプラグインとして設計された単純なアルゴリズムである。
論文 参考訳(メタデータ) (2023-02-07T10:02:05Z) - Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - Contrastive Learning from Spatio-Temporal Mixed Skeleton Sequences for
Self-Supervised Skeleton-Based Action Recognition [21.546894064451898]
通常の拡張に基づくコントラストペアを直接拡張すると、性能の面ではリターンが制限されることが示される。
我々は,現在のコントラスト学習アプローチを補完する時間的スケルトン混合強化(SkeleMix)を備えたコントラスト学習フレームワークであるSkeleMixCLRを提案する。
論文 参考訳(メタデータ) (2022-07-07T03:18:09Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。