論文の概要: Attention Beats Concatenation for Conditioning Neural Fields
- arxiv url: http://arxiv.org/abs/2209.10684v1
- Date: Wed, 21 Sep 2022 22:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:35:18.588390
- Title: Attention Beats Concatenation for Conditioning Neural Fields
- Title(参考訳): コンディショニングニューラルフィールドのための注意ビート結合
- Authors: Daniel Rebain, Mark J. Matthews, Kwang Moo Yi, Gopal Sharma, Dmitry
Lagun, Andrea Tagliasacchi
- Abstract要約: ニューラルネットワークにおける共通条件付け機構の違いについて検討する。
ニューラルネットワークを用いた2D, 3D, 4D信号のモデリング実験を行った。
注意に基づく条件付けは、様々な設定で他のアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 24.116097002839698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural fields model signals by mapping coordinate inputs to sampled values.
They are becoming an increasingly important backbone architecture across many
fields from vision and graphics to biology and astronomy. In this paper, we
explore the differences between common conditioning mechanisms within these
networks, an essential ingredient in shifting neural fields from memorization
of signals to generalization, where the set of signals lying on a manifold is
modelled jointly. In particular, we are interested in the scaling behaviour of
these mechanisms to increasingly high-dimensional conditioning variables. As we
show in our experiments, high-dimensional conditioning is key to modelling
complex data distributions, thus it is important to determine what architecture
choices best enable this when working on such problems. To this end, we run
experiments modelling 2D, 3D, and 4D signals with neural fields, employing
concatenation, hyper-network, and attention-based conditioning strategies -- a
necessary but laborious effort that has not been performed in the literature.
We find that attention-based conditioning outperforms other approaches in a
variety of settings.
- Abstract(参考訳): 座標入力をサンプル値にマッピングしたニューラルフィールドモデル信号。
視覚、グラフィックス、生物学、天文学など、多くの分野において重要なバックボーンアーキテクチャになりつつある。
本稿では,これらのネットワーク内の共通条件付け機構の違いについて検討する。この機構は,多様体上の信号の集合が協調的にモデル化されるような,信号の記憶から一般化へ神経場を移行させる上で不可欠な要素である。
特に、より高次元の条件付け変数へのこれらのメカニズムのスケーリング挙動に興味があります。
実験で示したように、高次元条件付けは複雑なデータ分布のモデリングの鍵であり、このような問題に取り組む際に、どのアーキテクチャの選択が最も効果的かを決定することが重要である。
この目的のために、我々は2D、3D、および4D信号をニューラルネットワークでモデル化し、結合性、ハイパーネットワーク、注意に基づく条件付け戦略を採用する実験を行っている。
注意に基づくコンディショニングは、さまざまな設定で他のアプローチよりも優れています。
関連論文リスト
- Understanding the differences in Foundation Models: Attention, State Space Models, and Recurrent Neural Networks [50.29356570858905]
本稿では,これらすべてのアーキテクチャの共通表現に関する原則的な調査を可能にする動的システムフレームワーク(DSF)について紹介する。
ソフトマックスアテンションと他のモデルクラスとの原理的比較を行い、ソフトマックスアテンションを近似できる理論条件について議論する。
このことは、DSFが将来のより効率的でスケーラブルな基盤モデルの体系的な開発を導く可能性を示している。
論文 参考訳(メタデータ) (2024-05-24T17:19:57Z) - Orchid: Flexible and Data-Dependent Convolution for Sequence Modeling [4.190836962132713]
本稿では,従来の注意機構の2次複雑さに対処する新しいアーキテクチャであるOrchidを紹介する。
このアーキテクチャのコアには、新しいデータ依存のグローバル畳み込み層があり、入力シーケンスに条件付きカーネルを文脈的に適応させる。
言語モデリングや画像分類など,複数の領域にまたがるモデルの評価を行い,その性能と汎用性を強調した。
論文 参考訳(メタデータ) (2024-02-28T17:36:45Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Discrete-Valued Neural Communication [85.3675647398994]
コンポーネント間で伝達される情報を離散表現に制限することは、有益なボトルネックであることを示す。
個人は「猫」が特定の経験に基づいて何であるかについて異なる理解を持っているが、共有された離散トークンは、個人間のコミュニケーションが内部表現の個人差によって切り離されることを可能にする。
我々は、量子化機構をベクトル量子化変分オートコーダから共有符号ブックによる多頭部離散化に拡張し、離散値ニューラル通信に利用する。
論文 参考訳(メタデータ) (2021-07-06T03:09:25Z) - Description of Structural Biases and Associated Data in Sensor-Rich
Environments [6.548580592686077]
センサが豊富な環境下での活動認識を研究する。
帰納バイアスの問題とそのデータ収集プロセスへの影響に対処します。
本稿では,センサデータをレイヤに構成するメタモデリングプロセスを提案する。
論文 参考訳(メタデータ) (2021-04-11T00:26:59Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Evolving Attention with Residual Convolutions [29.305149185821882]
本稿では,変圧器の性能向上を目的とした新しいメカニズムを提案する。
提案された注意メカニズムは、複数のタスクに対する様々な最新モデルに対する大幅なパフォーマンス改善を実現する。
論文 参考訳(メタデータ) (2021-02-20T15:24:06Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。