論文の概要: Thoughts on Objectives of Sparse and Hierarchical Masked Image Model
- arxiv url: http://arxiv.org/abs/2505.08819v1
- Date: Mon, 12 May 2025 18:40:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.237123
- Title: Thoughts on Objectives of Sparse and Hierarchical Masked Image Model
- Title(参考訳): スパースおよび階層型マスケッド画像モデルの目的に関する考察
- Authors: Asahi Miyazaki, Tsuyoshi Okita,
- Abstract要約: SparKモデルは自己教師付き学習モデルにおいて優れた性能で提案されている。
本稿では、このSparKモデルのための新しいマスクパターンを提案し、メッシュマスク付きSparKモデルとして提案する。
- 参考スコア(独自算出の注目度): 3.5938832647391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Masked image modeling is one of the most poplular objectives of training. Recently, the SparK model has been proposed with superior performance among self-supervised learning models. This paper proposes a new mask pattern for this SparK model, proposing it as the Mesh Mask-ed SparK model. We report the effect of the mask pattern used for image masking in pre-training on performance.
- Abstract(参考訳): 仮面画像モデリングは、トレーニングの最も一般的な目的の1つである。
近年,自己教師付き学習モデルにおいて,SparKモデルが優れた性能で提案されている。
本稿では、このSparKモデルのための新しいマスクパターンを提案し、メッシュマスク付きSparKモデルとして提案する。
プレトレーニングにおけるマスクパターンの効果を報告する。
関連論文リスト
- Reinforcement Learning meets Masked Video Modeling : Trajectory-Guided Adaptive Token Selection [12.421172561756473]
新規かつ一般化可能なトラジェクトリ・アウェア・トケン・サンプラー(TATS)について紹介する。
TATSはトークンの動作ダイナミクスをモデル化し、マスク付きオートエンコーダフレームワークにシームレスに統合することができる。
本モデルでは,動作認識の下流タスクの性能を損なうことなく,アグレッシブマスキングを可能にすることを示す。
論文 参考訳(メタデータ) (2025-05-13T13:35:41Z) - Evolved Hierarchical Masking for Self-Supervised Learning [49.77271430882176]
既存のマスケ画像モデリング手法では、固定マスクパターンを適用して自己指導型トレーニングを指導する。
本稿では,自己教師型学習における一般的な視覚的手がかりモデリングを追求する階層型マスキング手法を提案する。
論文 参考訳(メタデータ) (2025-04-12T09:40:14Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Stare at What You See: Masked Image Modeling without Reconstruction [154.74533119863864]
Masked Autoencoders (MAE) は、大規模な視覚表現事前学習のパラダイムとして広く普及している。
近年の手法では, 画像特徴を再構成対象として抽出するために, セマンティック・リッチな教師モデルが適用されており, 性能が向上している。
強力な教師モデルによって抽出された特徴は、画像中の領域間のリッチなセマンティックな相関を既にエンコードしていると論じる。
論文 参考訳(メタデータ) (2022-11-16T12:48:52Z) - Shape-Aware Masking for Inpainting in Medical Imaging [49.61617087640379]
インペイントは、教師なしの医用画像モデル発見のためのディープラーニング技術として成功している。
本稿では, 先行する統計的形状の学習を目的とした, 塗装用形状認識マスクの生成手法を提案する。
市販の塗装モデルとスーパーピクセルオーバーセグメンテーションアルゴリズムに基づく教師なしマスキング手法を提案する。
論文 参考訳(メタデータ) (2022-07-12T18:35:17Z) - Adversarial Masking for Self-Supervised Learning [81.25999058340997]
自己教師付き学習のためのマスク付き画像モデル(MIM)フレームワークであるADIOSを提案する。
対向目的物を用いてマスキング機能と画像エンコーダを同時に学習する。
さまざまなタスクやデータセットに対する最先端の自己教師付き学習(SSL)メソッドを一貫して改善する。
論文 参考訳(メタデータ) (2022-01-31T10:23:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。