論文の概要: Learning Visual Representations for Transfer Learning by Suppressing
Texture
- arxiv url: http://arxiv.org/abs/2011.01901v2
- Date: Wed, 4 Nov 2020 16:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:16:21.589474
- Title: Learning Visual Representations for Transfer Learning by Suppressing
Texture
- Title(参考訳): テクスチャ抑制による転向学習のための視覚表現の学習
- Authors: Shlok Mishra, Anshul Shah, Ankan Bansal, Jonghyun Choi, Abhinav
Shrivastava, Abhishek Sharma, David Jacobs
- Abstract要約: 自己教師付き学習では、低レベルのキューとしてのテクスチャは、ネットワークがより高いレベルの表現を学習することを防ぐショートカットを提供する。
本稿では,異方性拡散に基づく古典的手法を用いて,テクスチャを抑圧した画像を用いた強化訓練を提案する。
提案手法は,物体検出と画像分類における最先端の成果を実証的に示す。
- 参考スコア(独自算出の注目度): 38.901410057407766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent literature has shown that features obtained from supervised training
of CNNs may over-emphasize texture rather than encoding high-level information.
In self-supervised learning in particular, texture as a low-level cue may
provide shortcuts that prevent the network from learning higher level
representations. To address these problems we propose to use classic methods
based on anisotropic diffusion to augment training using images with suppressed
texture. This simple method helps retain important edge information and
suppress texture at the same time. We empirically show that our method achieves
state-of-the-art results on object detection and image classification with
eight diverse datasets in either supervised or self-supervised learning tasks
such as MoCoV2 and Jigsaw. Our method is particularly effective for transfer
learning tasks and we observed improved performance on five standard transfer
learning datasets. The large improvements (up to 11.49\%) on the
Sketch-ImageNet dataset, DTD dataset and additional visual analyses with
saliency maps suggest that our approach helps in learning better
representations that better transfer.
- Abstract(参考訳): 近年の文献では、CNNの教師付きトレーニングから得られる特徴は、高レベルの情報を符号化するのではなく、テクスチャを過度に強調することが示されている。
特に自己教師付き学習では、低レベルの手がかりとしてのテクスチャは、ネットワークが高レベルの表現を学習することを妨げるショートカットを提供する。
これらの問題に対処するために、異方性拡散に基づく古典的手法を用いて、テクスチャを抑圧した画像を用いた強化訓練を提案する。
この簡単な方法は重要なエッジ情報を保持し、同時にテクスチャを抑えるのに役立つ。
提案手法は,MoCoV2やJigsawといった教師付き学習タスクや自己教師型学習タスクにおいて,8つの多様なデータセットを用いてオブジェクト検出と画像分類に関する最先端の成果を実証的に示す。
提案手法は, 移動学習に特に有効であり, 5つの標準移動学習データセットの性能向上を観察した。
Sketch-ImageNetデータセットとDTDデータセットの大幅な改善(最大11.49\%)と、唾液度マップによる視覚的分析は、私たちのアプローチがよりよい転送表現の学習に役立つことを示唆している。
関連論文リスト
- Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Hybrid BYOL-ViT: Efficient approach to deal with small Datasets [0.0]
本稿では,ラベルなしデータの強大かつ十分な増大を伴う自己超越が,ニューラルネットワークの第1層を効果的に学習する方法について検討する。
自己教師型アーキテクチャから派生した低レベルの特徴は、この創発的アーキテクチャの堅牢性と全体的な性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-11-08T21:44:31Z) - Exploiting the relationship between visual and textual features in
social networks for image classification with zero-shot deep learning [0.0]
本稿では,CLIPニューラルネットワークアーキテクチャの伝達可能な学習能力に基づく分類器アンサンブルを提案する。
本研究は,Placesデータセットのラベルによる画像分類タスクに基づいて,視覚的部分のみを考慮した実験である。
画像に関連付けられたテキストを考えることは、目標に応じて精度を向上させるのに役立つ。
論文 参考訳(メタデータ) (2021-07-08T10:54:59Z) - Scaling Up Visual and Vision-Language Representation Learning With Noisy
Text Supervision [57.031588264841]
高価なフィルタリングや後処理のステップを使わずに得られる10億以上の画像アルトテキストペアのノイズの多いデータセットを活用します。
単純なデュアルエンコーダアーキテクチャは、画像とテキストペアの視覚的および言語的表現を、対照的な損失を使って整列させることを学ぶ。
コーパスのスケールはノイズを補うことができ、そのような単純な学習方式であっても最先端の表現に繋がることを示す。
論文 参考訳(メタデータ) (2021-02-11T10:08:12Z) - Self-supervised Learning with Fully Convolutional Networks [24.660086792201263]
セマンティックセグメンテーションのためのラベルのないデータから表現を学習する問題に焦点を当てる。
2つのパッチベース手法に着想を得て,新しい自己教師付き学習フレームワークを開発した。
ベースラインモデルに対して5.8ポイント改善を達成しました。
論文 参考訳(メタデータ) (2020-12-18T02:31:28Z) - Self supervised contrastive learning for digital histopathology [0.0]
我々はSimCLRと呼ばれる対照的な自己教師型学習手法を用いて、自然シーン画像の最先端結果を得た。
異なる種類の染色特性と分解特性とを組み合わせることで,学習した特徴の質が向上することがわかった。
学習した機能に基づいてトレーニングされた線形分類器は、デジタル病理学データセットで事前トレーニングされたネットワークが、ImageNet事前トレーニングされたネットワークよりも優れたパフォーマンスを示すことを示している。
論文 参考訳(メタデータ) (2020-11-27T19:18:45Z) - An analysis of the transfer learning of convolutional neural networks
for artistic images [1.9336815376402716]
巨大な自然画像データセットからのトランスファー学習は、アート分析アプリケーションの中核となっている。
本稿ではまず,ネットワークの内部表現を可視化する手法を用いて,ネットワークが芸術的イメージで何を学んだかを理解するための手がかりを提供する。
特徴空間とパラメータ空間の両方のメトリクスと、最大アクティベーション画像のセットで計算されたメトリクスのおかげで、学習プロセスが導入した変化を定量的に分析する。
論文 参考訳(メタデータ) (2020-11-05T09:45:32Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。