論文の概要: MINR: Implicit Neural Representations with Masked Image Modelling
- arxiv url: http://arxiv.org/abs/2507.22404v1
- Date: Wed, 30 Jul 2025 06:12:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.020501
- Title: MINR: Implicit Neural Representations with Masked Image Modelling
- Title(参考訳): 三国:仮面画像モデリングによる暗黙のニューラル表現
- Authors: Sua Lee, Joonhun Lee, Myungjoo Kang,
- Abstract要約: Masked Autoencoders (MAE) は、ロバストな特徴表現の学習において大きな可能性を秘めている。
暗黙的ニューラル表現をマスク画像モデリングと相乗化するマスク付き暗黙的ニューラル表現(MINR)フレームワークを導入する。
MINRは画像を表す連続関数を学習し、マスキング戦略によらず、より堅牢で一般化可能な再構築を可能にする。
- 参考スコア(独自算出の注目度): 5.330266804358638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning methods like masked autoencoders (MAE) have shown significant promise in learning robust feature representations, particularly in image reconstruction-based pretraining task. However, their performance is often strongly dependent on the masking strategies used during training and can degrade when applied to out-of-distribution data. To address these limitations, we introduce the masked implicit neural representations (MINR) framework that synergizes implicit neural representations with masked image modeling. MINR learns a continuous function to represent images, enabling more robust and generalizable reconstructions irrespective of masking strategies. Our experiments demonstrate that MINR not only outperforms MAE in in-domain scenarios but also in out-of-distribution settings, while reducing model complexity. The versatility of MINR extends to various self-supervised learning applications, confirming its utility as a robust and efficient alternative to existing frameworks.
- Abstract(参考訳): マスク付きオートエンコーダ(MAE)のような自己教師型学習手法は、特に画像再構成に基づく事前訓練タスクにおいて、ロバストな特徴表現を学習する上で大きな可能性を示している。
しかしながら、それらのパフォーマンスはトレーニング中に使用されるマスキング戦略に強く依存することが多く、アウト・オブ・ディストリビューションデータに適用すると劣化する可能性がある。
これらの制約に対処するために、暗黙的ニューラル表現(MINR)フレームワークを導入し、暗黙的ニューラル表現をマスク画像モデリングと相乗化する。
MINRは画像を表す連続関数を学習し、マスキング戦略によらず、より堅牢で一般化可能な再構築を可能にする。
実験の結果,MINRはドメイン内シナリオにおいてMAEより優れるだけでなく,配布外設定でも優れ,モデルの複雑さを低減できることがわかった。
MINRの汎用性は、既存のフレームワークに対する堅牢で効率的な代替手段として、様々な自己教師付き学習アプリケーションに拡張されている。
関連論文リスト
- Neural Experts: Mixture of Experts for Implicit Neural Representations [41.395193251292895]
入射神経表現(INR)は、画像、形状、音声、ビデオ再構成など様々なタスクで有効であることが証明されている。
本稿では,局所的な部分的連続関数の学習を可能にする暗黙的ニューラル表現手法(MoE)の混合を提案する。
既存のINRの定式化に専門家アーキテクチャを混在させることで,高速化,精度,メモリ要件が向上することを示す。
論文 参考訳(メタデータ) (2024-10-29T01:11:25Z) - BIM: Block-Wise Self-Supervised Learning with Masked Image Modeling [18.861945284506028]
Masked Image Modeling (MIM)は、画像パッチから貴重な洞察を抽出し、基盤となるディープニューラルネットワーク(DNN)の機能抽出能力を高めることを目的としている。
論文 参考訳(メタデータ) (2023-11-28T20:42:30Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Exploring The Role of Mean Teachers in Self-supervised Masked
Auto-Encoders [64.03000385267339]
マスク付き画像モデリング(MIM)は視覚変換器を用いた視覚表現の自己教師型学習(SSL)の一般的な戦略となっている。
簡単なSSL方式であるRC-MAE(Restruction-Consistent Masked Auto-Encoder)を提案する。
RC-MAEは、事前学習中に最先端の自己蒸留法よりも早く収束し、メモリ使用量の削減を必要とする。
論文 参考訳(メタデータ) (2022-10-05T08:08:55Z) - MA-RECON: Mask-aware deep-neural-network for robust fast MRI k-space
interpolation [3.0821115746307672]
低サンプリングkspaceデータからのMRI画像の高品質な再構成は、MRI取得時間を短縮し、時間分解能を向上するために重要である。
本稿では,マスク対応ディープニューラルネットワーク(DNN)アーキテクチャと関連するトレーニング手法であるMA-RECONを紹介する。
様々なアンダーサンプリングマスクで生成されたデータを活用して、アンダーサンプリングされたMRI再構成問題の一般化を刺激する。
論文 参考訳(メタデータ) (2022-08-31T15:57:38Z) - Adversarial Masking for Self-Supervised Learning [81.25999058340997]
自己教師付き学習のためのマスク付き画像モデル(MIM)フレームワークであるADIOSを提案する。
対向目的物を用いてマスキング機能と画像エンコーダを同時に学習する。
さまざまなタスクやデータセットに対する最先端の自己教師付き学習(SSL)メソッドを一貫して改善する。
論文 参考訳(メタデータ) (2022-01-31T10:23:23Z) - Mask-based Latent Reconstruction for Reinforcement Learning [58.43247393611453]
マスクをベースとした遅延再構成(MLR)は,空間的および時間的マスキング画素を用いた観測から潜在空間の完全な状態表現を予測するために提案される。
広汎な実験により,MLRは深部強化学習における試料効率を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-01-28T13:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。