論文の概要: Generalizable Implicit Neural Representations via Instance Pattern
Composers
- arxiv url: http://arxiv.org/abs/2211.13223v2
- Date: Mon, 17 Apr 2023 12:55:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 23:15:02.747207
- Title: Generalizable Implicit Neural Representations via Instance Pattern
Composers
- Title(参考訳): インスタンスパターン作曲家による一般化可能な暗黙的神経表現
- Authors: Chiheon Kim, Doyup Lee, Saehoon Kim, Minsu Cho, Wook-Shin Han
- Abstract要約: 一般化可能な暗黙的ニューラル表現(INR)のためのシンプルで効果的なフレームワークを提案する。
私たちのフレームワークは、目に見えないインスタンスの重量を予測するために、既存のメタ学習やハイパーネットワークと完全に互換性があります。
本手法は,音声,画像,3次元オブジェクトなど,幅広い領域において高い性能を実現する。
- 参考スコア(独自算出の注目度): 40.04085054791994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent advances in implicit neural representations (INRs), it remains
challenging for a coordinate-based multi-layer perceptron (MLP) of INRs to
learn a common representation across data instances and generalize it for
unseen instances. In this work, we introduce a simple yet effective framework
for generalizable INRs that enables a coordinate-based MLP to represent complex
data instances by modulating only a small set of weights in an early MLP layer
as an instance pattern composer; the remaining MLP weights learn pattern
composition rules for common representations across instances. Our
generalizable INR framework is fully compatible with existing meta-learning and
hypernetworks in learning to predict the modulated weight for unseen instances.
Extensive experiments demonstrate that our method achieves high performance on
a wide range of domains such as an audio, image, and 3D object, while the
ablation study validates our weight modulation.
- Abstract(参考訳): 近年の暗黙的神経表現(INR)の進歩にもかかわらず、INRの座標ベースの多層パーセプトロン(MLP)が、データインスタンス間の共通表現を学習し、目に見えないインスタンスに対して一般化することは、依然として困難である。
本研究では,初期MLP層内の少量の重みだけをインスタンスパターンの合成として調整することにより,座標ベースのMLPが複雑なデータインスタンスを表現できる,一般化可能なINRのフレームワークを提案する。
我々の一般化可能なINRフレームワークは、既存のメタラーニングやハイパーネットワークと完全に互換性があり、未確認インスタンスの変調重量を予測することができる。
広範囲な実験により,音声,画像,3dオブジェクトなど幅広い領域において高い性能を得られたが,アブレーション実験では重みの変調が検証された。
関連論文リスト
- cDP-MIL: Robust Multiple Instance Learning via Cascaded Dirichlet Process [23.266122629592807]
マルチプル・インスタンス・ラーニング (MIL) は全スライス・ヒストパラメトリック・イメージ (WSI) 解析に広く応用されている。
MILの既存の集約戦略は、主にインスタンス間の一階距離に依存するが、各インスタンスの真の特徴分布を正確に近似することができない。
本稿では、複数のインスタンス学習のための新しいベイズ非パラメトリックフレームワークを提案し、WSIのインスタンス・ツー・バッグ特性を組み込むためにディリクレ・プロセスのカスケード(cDP)を採用する。
論文 参考訳(メタデータ) (2024-07-16T07:28:39Z) - Equivariant Architectures for Learning in Deep Weight Spaces [54.61765488960555]
重み空間の学習のための新しいネットワークアーキテクチャを提案する。
入力として、事前訓練された不変量の重みとバイアスの連結をとる。
これらのレイヤを3つの基本的な操作で実装する方法を示す。
論文 参考訳(メタデータ) (2023-01-30T10:50:33Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - PAC Reinforcement Learning for Predictive State Representations [60.00237613646686]
部分的に観察可能な力学系におけるオンライン強化学習(RL)について検討する。
我々は、他のよく知られたモデルをキャプチャする表現モデルである予測状態表現(PSR)モデルに焦点を当てる。
我々は,サンプル複雑性のスケーリングにおいて,ほぼ最適なポリシを学習可能な,PSRのための新しいモデルベースアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-07-12T17:57:17Z) - A Unifying Multi-sampling-ratio CS-MRI Framework With Two-grid-cycle
Correction and Geometric Prior Distillation [7.643154460109723]
本稿では,モデルベースと深層学習に基づく手法の利点を融合して,深層展開型マルチサンプリング比CS-MRIフレームワークを提案する。
マルチグリッドアルゴリズムにインスパイアされ、まずCS-MRIに基づく最適化アルゴリズムを補正蒸留方式に組み込む。
各段の圧縮サンプリング比から適応的なステップ長と雑音レベルを学習するために条件モジュールを用いる。
論文 参考訳(メタデータ) (2022-05-14T13:36:27Z) - Multi-Scale Semantics-Guided Neural Networks for Efficient
Skeleton-Based Human Action Recognition [140.18376685167857]
スケルトンに基づく行動認識には,単純なマルチスケールセマンティクス誘導ニューラルネットワークが提案されている。
MS-SGNは、NTU60、NTU120、SYSUデータセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-11-07T03:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。