論文の概要: Transformers as Meta-Learners for Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2208.02801v2
- Date: Fri, 5 Aug 2022 06:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 10:28:19.829557
- Title: Transformers as Meta-Learners for Implicit Neural Representations
- Title(参考訳): メタラーナとしてのトランスフォーマー
- Authors: Yinbo Chen, Xiaolong Wang
- Abstract要約: Inlicit Neural Representations (INRs) は近年、離散表現よりもその利点を示してきた。
InRのハイパーネットとしてTransformerを利用する定式化を提案し,INRの重みの集合を直接構築する。
本稿では,3次元オブジェクトに対する2次元画像回帰とビュー合成を含む,異なるタスクや領域でINRを構築するための手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 10.673855995948736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INRs) have emerged and shown their benefits
over discrete representations in recent years. However, fitting an INR to the
given observations usually requires optimization with gradient descent from
scratch, which is inefficient and does not generalize well with sparse
observations. To address this problem, most of the prior works train a
hypernetwork that generates a single vector to modulate the INR weights, where
the single vector becomes an information bottleneck that limits the
reconstruction precision of the output INR. Recent work shows that the whole
set of weights in INR can be precisely inferred without the single-vector
bottleneck by gradient-based meta-learning. Motivated by a generalized
formulation of gradient-based meta-learning, we propose a formulation that uses
Transformers as hypernetworks for INRs, where it can directly build the whole
set of INR weights with Transformers specialized as set-to-set mapping. We
demonstrate the effectiveness of our method for building INRs in different
tasks and domains, including 2D image regression and view synthesis for 3D
objects. Our work draws connections between the Transformer hypernetworks and
gradient-based meta-learning algorithms and we provide further analysis for
understanding the generated INRs.
- Abstract(参考訳): Inlicit Neural Representations (INRs) は近年、離散表現よりもその利点を示してきた。
しかし、INRを与えられた観測に合わせるには、通常、スクラッチからの勾配降下による最適化が必要であるが、これは非効率であり、スパース観測ではうまく一般化しない。
この問題に対処するため、先行研究の多くは、INR重みを変調する単一のベクトルを生成するハイパーネットワークを訓練し、そこでは、単一のベクトルが出力INRの再構成精度を制限する情報ボトルネックとなる。
近年の研究では、勾配に基づくメタラーニングにより、単ベクトルボトルネックなしにINR全体の重みを正確に推定できることが示されている。
勾配に基づくメタラーニングを一般化した定式化により,INRのハイパーネットワークとしてTransformersを利用する定式化を提案し,セット・ツー・セット・マッピングに特化したTransformersを用いて,INR重みの集合を直接構築する。
2次元画像回帰や3次元オブジェクトのビュー合成など,さまざまなタスクやドメインにおけるinrs構築手法の有効性を実証する。
我々はTransformer Hypernetworksと勾配に基づくメタラーニングアルゴリズムの接続を図り、生成したINRを理解するためのさらなる分析を行う。
関連論文リスト
- Single-Layer Learnable Activation for Implicit Neural Representation (SL$^{2}$A-INR) [6.572456394600755]
ニューラルネットワークを利用して、座標入力を対応する属性に変換するインプシット表現(INR)は、視覚関連領域において大きな進歩をもたらした。
SL$2$A-INR を単層学習可能なアクティベーション関数として提案し,従来の ReLU ベースの有効性を推し進める。
提案手法は,画像表現,3次元形状再構成,単一画像超解像,CT再構成,新しいビューなど,多様なタスクに優れる。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Attention Beats Linear for Fast Implicit Neural Representation Generation [13.203243059083533]
本稿では,局所的注意層(LAL)と大域的表現ベクトルからなる注意型局所INR(ANR)を提案する。
インスタンス固有の表現とインスタンスに依存しないANRパラメータにより、ターゲット信号は連続関数として十分に再構成される。
論文 参考訳(メタデータ) (2024-07-22T03:52:18Z) - Transformers meet Neural Algorithmic Reasoners [16.5785372289558]
我々は、トランスフォーマー言語理解とグラフニューラルネットワーク(GNN)に基づくニューラルネットワーク推論(NAR)の堅牢性を組み合わせた新しいアプローチを提案する。
CLRS-30ベンチマークのテキストベースバージョンであるCLRS-Text上で得られたTransNARモデルを評価し,アルゴリズム推論のためのTransformerのみのモデルよりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-06-13T16:42:06Z) - Locality-Aware Generalizable Implicit Neural Representation [54.93702310461174]
一般化可能な暗黙的ニューラル表現(INR)は、単一の連続関数が複数のデータインスタンスを表現することを可能にする。
本稿では、変換器エンコーダと局所性を考慮したINRデコーダを組み合わせた一般化可能なINRのための新しいフレームワークを提案する。
我々のフレームワークは、従来の一般化可能なINRよりも大幅に優れており、下流タスクにおける局所性を考慮した潜在能力の有効性を検証している。
論文 参考訳(メタデータ) (2023-10-09T11:26:58Z) - B-cos Alignment for Inherently Interpretable CNNs and Vision
Transformers [97.75725574963197]
本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
このような変換の列は、完全なモデル計算を忠実に要約する単一の線形変換を誘導することを示す。
得られた説明は視覚的品質が高く,定量的解釈可能性指標下では良好に機能することを示す。
論文 参考訳(メタデータ) (2023-06-19T12:54:28Z) - Regularize implicit neural representation by itself [48.194276790352006]
Inlicit Neural Representation Regularizer (INRR) と呼ばれる正則化器を提案し、Inlicit Neural Representation (INR) の一般化能力を向上させる。
提案したINRRは、行列の行/列間の類似度を測定する学習されたディリクレエネルギー(DE)に基づいている。
また、収束軌道やマルチスケール類似性のような運動量法を含む、INRRから派生した一連の特性を明らかにした。
論文 参考訳(メタデータ) (2023-03-27T04:11:08Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - B-cos Networks: Alignment is All We Need for Interpretability [136.27303006772294]
本稿では,深層ニューラルネットワーク(DNN)の学習における重み付けの促進による解釈可能性の向上に向けた新たな方向性を提案する。
B-コス変換は、完全なモデル計算を忠実に要約する単一の線形変換を誘導する。
VGGs、ResNets、InceptionNets、DenseNetsといった一般的なモデルに簡単に統合できることを示します。
論文 参考訳(メタデータ) (2022-05-20T16:03:29Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。