論文の概要: Residual Relaxation for Multi-view Representation Learning
- arxiv url: http://arxiv.org/abs/2110.15348v1
- Date: Thu, 28 Oct 2021 17:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:53:18.826038
- Title: Residual Relaxation for Multi-view Representation Learning
- Title(参考訳): 多視点表現学習のための残差緩和
- Authors: Yifei Wang, Zhengyang Geng, Feng Jiang, Chuming Li, Yisen Wang,
Jiansheng Yang, Zhouchen Lin
- Abstract要約: マルチビュー手法は、同じ画像の複数のビューをアライメントすることで学習する。
画像回転などの有用な拡張は、セマンティックシフトを引き起こすため、多視点法には有害である。
我々は,Pretext-aware Residual Relaxation (Prelax) という汎用的な手法を開発し,正確なアライメントを緩和する。
- 参考スコア(独自算出の注目度): 64.40142301026805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view methods learn representations by aligning multiple views of the
same image and their performance largely depends on the choice of data
augmentation. In this paper, we notice that some other useful augmentations,
such as image rotation, are harmful for multi-view methods because they cause a
semantic shift that is too large to be aligned well. This observation motivates
us to relax the exact alignment objective to better cultivate stronger
augmentations. Taking image rotation as a case study, we develop a generic
approach, Pretext-aware Residual Relaxation (Prelax), that relaxes the exact
alignment by allowing an adaptive residual vector between different views and
encoding the semantic shift through pretext-aware learning. Extensive
experiments on different backbones show that our method can not only improve
multi-view methods with existing augmentations, but also benefit from stronger
image augmentations like rotation.
- Abstract(参考訳): マルチビュー手法は、同一画像の複数のビューを整列させて表現を学習し、その性能はデータ拡張の選択に大きく依存する。
本稿では、画像回転などの他の有用な拡張が多視点手法に有害であることに気付き、それらが適切に整列するには大きすぎるセマンティックシフトを引き起こす。
この観察は、より強固な増強を育むために、正確なアライメント目標を緩和する動機を与えます。
画像の回転をケーススタディとして、異なるビュー間の適応的残差ベクトルを許容し、前文認識学習を通じて意味的シフトを符号化することにより、正確なアライメントを緩和する汎用的アプローチであるpretext-aware residual relax(prelax)を開発した。
異なるバックボーンに対する大規模な実験により,既存の拡張によるマルチビュー手法の改善だけでなく,回転などの画像強化によるメリットも示された。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - Multimodal contrastive learning for remote sensing tasks [0.5801044612920815]
本稿では,Sentinel-1 と Sentinel-2 の画像ペアの大きなラベル付きデータセット (1M) 上で事前トレーニングされたデュアルエンコーダフレームワークを提案する。
本研究では,2つのリモートセンシング下流タスク(洪水セグメンテーションとランドカバーマッピング)における埋め込み実験を行い,この手法から学習した埋め込みが,積極的データ拡張による正のサンプル収集という従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-06T09:31:45Z) - R\'enyiCL: Contrastive Representation Learning with Skew R\'enyi
Divergence [78.15455360335925]
我々はR'enyiCLという新しい頑健なコントラスト学習手法を提案する。
我々の手法は R'enyi divergence の変動的下界の上に構築されている。
我々は,R'enyi の対照的な学習目的が,自然に強い負のサンプリングと簡単な正のサンプリングを同時に行うことを示す。
論文 参考訳(メタデータ) (2022-08-12T13:37:05Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - CORE: Consistent Representation Learning for Face Forgery Detection [11.750814179329343]
顔操作技術は急速に発展し、公衆の関心を喚起する。
バニラ畳み込みニューラルネットワークは許容可能な性能を達成するが、それらは過度に適合する問題に悩まされる。
この問題を和らげるために、いくつかの消去ベースの拡張を導入する傾向があります。
これらの手法は実際には、異なる拡張に対してより一貫性のある表現を暗黙的に誘導しようとする。
しかし、明示的な正規化が欠如しているため、異なる表現間の整合性は不十分である。
論文 参考訳(メタデータ) (2022-06-06T17:15:56Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。