論文の概要: FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2007.08505v1
- Date: Thu, 16 Jul 2020 17:55:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:31:08.904998
- Title: FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning
- Title(参考訳): featmatch: 半教師付き学習のための機能ベース拡張
- Authors: Chia-Wen Kuo and Chih-Yao Ma and Jia-Bin Huang and Zsolt Kira
- Abstract要約: 本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
- 参考スコア(独自算出の注目度): 64.32306537419498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent state-of-the-art semi-supervised learning (SSL) methods use a
combination of image-based transformations and consistency regularization as
core components. Such methods, however, are limited to simple transformations
such as traditional data augmentation or convex combinations of two images. In
this paper, we propose a novel learned feature-based refinement and
augmentation method that produces a varied set of complex transformations.
Importantly, these transformations also use information from both within-class
and across-class prototypical representations that we extract through
clustering. We use features already computed across iterations by storing them
in a memory bank, obviating the need for significant extra computation. These
transformations, combined with traditional image-based augmentation, are then
used as part of the consistency-based regularization loss. We demonstrate that
our method is comparable to current state of art for smaller datasets (CIFAR-10
and SVHN) while being able to scale up to larger datasets such as CIFAR-100 and
mini-Imagenet where we achieve significant gains over the state of art
(\textit{e.g.,} absolute 17.44\% gain on mini-ImageNet). We further test our
method on DomainNet, demonstrating better robustness to out-of-domain unlabeled
data, and perform rigorous ablations and analysis to validate the method.
- Abstract(参考訳): 最近の最先端の半教師付き学習(SSL)手法は、画像ベースの変換と一貫性の正則化をコアコンポーネントとして用いている。
しかし、そのような方法は従来のデータ拡張や2つの画像の凸結合のような単純な変換に限られる。
本稿では,多種多様な複雑な変換を生成する特徴量に基づく改良・拡張手法を提案する。
重要なことは、これらの変換はクラスタリングを通して抽出したクラス内およびクラス横断のプロトタイプ表現の情報も利用する。
私たちは、メモリバンクにそれらを格納することで、イテレーション全体で計算された機能を既に使用しています。
これらの変換と従来のイメージベースの拡張の組み合わせは、一貫性に基づく正規化損失の一部として使用される。
この手法は,cifar-100 や mini-imagenet のような大規模データセットまでスケールアップできる一方で,より小さなデータセット (cifar-10 や svhn) に対する現在の art に匹敵するものであることを実証する(例えば,mini-imagenet における絶対値 17.44\% の利得)。
さらに,本手法をDomainNet上でテストし,ドメイン外の未ラベルデータに対してより堅牢性を示すとともに,厳密な改善と解析を行い,検証を行った。
関連論文リスト
- Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Patch-Wise Self-Supervised Visual Representation Learning: A Fine-Grained Approach [4.9204263448542465]
本研究は、パッチレベルの識別を自己教師付き視覚表現学習に組み込むことにより、革新的できめ細かな次元を導入する。
それぞれのパッチは個別に拡張され、同じビュー内の他のパッチとは独立している。
我々は、拡張ビュー全体にわたって対応するパッチを見つけるための、単純で効果的なパッチマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T09:35:30Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Learning Image Deraining Transformer Network with Dynamic Dual
Self-Attention [46.11162082219387]
本稿では,動的二重自己アテンション(DDSA)を用いた画像デコライニング変換器を提案する。
具体的には、トップk近似計算に基づいて、最も有用な類似度値のみを選択し、スパースアテンションを実現する。
また,高品質な定位結果を得るためのより正確な表現を実現するために,新しい空間拡張フィードフォワードネットワーク(SEFN)を開発した。
論文 参考訳(メタデータ) (2023-08-15T13:59:47Z) - Improving Pixel-based MIM by Reducing Wasted Modeling Capability [77.99468514275185]
浅い層から低レベルの特徴を明示的に利用して画素再構成を支援する手法を提案する。
私たちの知る限りでは、等方的アーキテクチャのためのマルチレベル特徴融合を体系的に研究するのは、私たちは初めてです。
提案手法は, 微調整では1.2%, 線形探索では2.8%, セマンティックセグメンテーションでは2.6%など, 大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2023-08-01T03:44:56Z) - Image Clustering via the Principle of Rate Reduction in the Age of Pretrained Models [37.574691902971296]
本稿では,大規模事前学習モデルの強力な特徴表現を利用した画像クラスタリングパイプラインを提案する。
パイプラインは、CIFAR-10、CIFAR-100、ImageNet-1kなどの標準データセットでうまく動作することを示す。
論文 参考訳(メタデータ) (2023-06-08T15:20:27Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Deep Transformation-Invariant Clustering [24.23117820167443]
抽象的な特徴に頼らず、画像変換の予測を学ぶアプローチを提案する。
この学習プロセスは、K平均とガウス混合モデルの勾配に基づく訓練に自然に適合する。
我々の新しいアプローチは、標準的な画像クラスタリングベンチマークにおいて、競争力があり、非常に有望な結果をもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-19T13:43:08Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。