論文の概要: How to Understand Masked Autoencoders
- arxiv url: http://arxiv.org/abs/2202.03670v1
- Date: Tue, 8 Feb 2022 06:15:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 14:09:50.509426
- Title: How to Understand Masked Autoencoders
- Title(参考訳): マスクオートエンコーダの理解方法
- Authors: Shuhao Cao, Peng Xu, David A. Clifton
- Abstract要約: Masked Autoencoders (MAE) の数学的理解を提供する統一理論フレームワークを提案する。
特に、重複しない領域分解設定の下で、積分カーネルを用いたMAEのパッチベースのアテンションアプローチについて説明する。
筆者らは,MAEの大成功の主な理由を,我々の枠組みに基づいて理解するために,5つの質問に回答する。
- 参考スコア(独自算出の注目度): 15.775716869623992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: "Masked Autoencoders (MAE) Are Scalable Vision Learners" revolutionizes the
self-supervised learning that not only achieves the state-of-the-art for image
pretraining, but also is a milestone that bridged the gap between the visual
and linguistic masked autoencoding (BERT-style) pretrainings. However, to our
knowledge, to date there are no theoretical perspectives to explain the
powerful expressivity of MAE. In this paper, we, for the first time, propose a
unified theoretical framework that provides a mathematical understanding for
MAE. Particularly, we explain the patch-based attention approaches of MAE using
an integral kernel under a non-overlapping domain decomposition setting. To
help the researchers to further grasp the main reasons of the great success of
MAE, based on our framework, we contribute five questions and answer them by
insights from operator theory with mathematical rigor.
- Abstract(参考訳): masked autoencoders (mae) are scalable vision learners"は、画像の事前学習の最先端を達成するだけでなく、視覚と言語によるマスク付き自動エンコーディング(bert)のギャップを埋めるマイルストーンでもある、自己教師付き学習に革命をもたらす。
しかし、我々の知る限り、今のところMAEの強力な表現性を説明する理論的視点は存在しない。
本稿では,MAEの数学的理解を提供する統一理論フレームワークを初めて提案する。
特に,重複しない領域分割設定下での積分カーネルを用いたmaeのパッチベースの注意アプローチについて説明する。
筆者らは,MAEの大成功の主な理由を,我々の枠組みに基づいて理解するために,5つの質問に回答し,演算子理論と数学的厳密さの洞察を用いて回答する。
関連論文リスト
- Bringing Masked Autoencoders Explicit Contrastive Properties for Point Cloud Self-Supervised Learning [116.75939193785143]
画像領域における視覚変換器(ViT)のコントラスト学習(CL)は、従来の畳み込みバックボーンのCLに匹敵する性能を達成した。
ViTで事前訓練した3Dポイントクラウドでは、マスク付きオートエンコーダ(MAE)モデリングが主流である。
論文 参考訳(メタデータ) (2024-07-08T12:28:56Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Modality-Agnostic Self-Supervised Learning with Meta-Learned Masked
Auto-Encoder [61.7834263332332]
我々はMasked Auto-Encoder (MAE) を統一されたモダリティに依存しないSSLフレームワークとして開発する。
メタラーニングは,MAEをモダリティに依存しない学習者として解釈する鍵として論じる。
本実験は,Modality-Agnostic SSLベンチマークにおけるMetaMAEの優位性を示す。
論文 参考訳(メタデータ) (2023-10-25T03:03:34Z) - Understanding Masked Autoencoders From a Local Contrastive Perspective [80.57196495601826]
Masked AutoEncoder (MAE)は、シンプルだが効果的なマスキングと再構築戦略によって、自己指導型学習の分野に革命をもたらした。
そこで我々は,MaEの再構成的側面とコントラスト的側面の両方を解析するために,ローカルコントラストMAEと呼ばれる新しい経験的枠組みを導入する。
論文 参考訳(メタデータ) (2023-10-03T12:08:15Z) - Understanding Masked Autoencoders via Hierarchical Latent Variable
Models [109.35382136147349]
Masked Autoencoder (MAE) は近年,様々な視覚タスクにおいて顕著な成功を収めている。
MAEに関する興味深い経験的観察の出現にもかかわらず、理論的に原理化された理解はいまだに欠如している。
論文 参考訳(メタデータ) (2023-06-08T03:00:10Z) - i-MAE: Are Latent Representations in Masked Autoencoders Linearly Separable? [26.146459754995597]
マスク付き画像モデリング(MIM)は視覚領域における自己監督型事前学習の強力なアプローチとして認識されている。
本稿では,表現能力を高めるために,インタラクティブなMasked Autoencoders (i-MAE) フレームワークを提案する。
潜在表現の特徴を質的に解析することに加えて,線形分離性の存在と潜在空間における意味論の程度について検討する。
論文 参考訳(メタデータ) (2022-10-20T17:59:54Z) - How Mask Matters: Towards Theoretical Understandings of Masked
Autoencoders [21.849681446573257]
再構成タスクに基づくマスケ自動エンコーダ(MAE)は、自己教師型学習(SSL)の有望なパラダイムになってきた。
本稿では,MAEが意味のある特徴を学習する上で,マスキングがいかに重要であるかを理論的に理解する。
論文 参考訳(メタデータ) (2022-10-15T17:36:03Z) - Exploring The Role of Mean Teachers in Self-supervised Masked
Auto-Encoders [64.03000385267339]
マスク付き画像モデリング(MIM)は視覚変換器を用いた視覚表現の自己教師型学習(SSL)の一般的な戦略となっている。
簡単なSSL方式であるRC-MAE(Restruction-Consistent Masked Auto-Encoder)を提案する。
RC-MAEは、事前学習中に最先端の自己蒸留法よりも早く収束し、メモリ使用量の削減を必要とする。
論文 参考訳(メタデータ) (2022-10-05T08:08:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。