論文の概要: Deep Learning on Implicit Neural Datasets
- arxiv url: http://arxiv.org/abs/2206.01178v1
- Date: Thu, 2 Jun 2022 17:44:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:04:32.423398
- Title: Deep Learning on Implicit Neural Datasets
- Title(参考訳): 意図しないニューラルデータセットの深層学習
- Authors: Clinton J. Wang and Polina Golland
- Abstract要約: 入射神経表現(INR)は、連続データを保存するための高速で軽量なツールになっている。
任意のタイプのINRで直接学習と推論を行うための,原則付きディープラーニングフレームワークを導入する。
InR-Netsは、低差分シーケンスでINRを評価し、ネットワーク全体の準モンテカルロ(QMC)統合を可能にする。
- 参考スコア(独自算出の注目度): 2.6027967363792865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representations (INRs) have become fast, lightweight tools
for storing continuous data, but to date there is no general method for
learning directly with INRs as a data representation. We introduce a principled
deep learning framework for learning and inference directly with INRs of any
type without reverting to grid-based features or operations. Our INR-Nets
evaluate INRs on a low discrepancy sequence, enabling quasi-Monte Carlo (QMC)
integration throughout the network. We prove INR-Nets are universal
approximators on a large class of maps between $L^2$ functions. Additionally,
INR-Nets have convergent gradients under the empirical measure, enabling
backpropagation. We design INR-Nets as a continuous generalization of discrete
networks, enabling them to be initialized with pre-trained models. We
demonstrate learning of INR-Nets on classification (INR$\to$label) and
segmentation (INR$\to$INR) tasks.
- Abstract(参考訳): Inlicit Neural representations (INR) は、連続データを保存するための高速で軽量なツールとなっているが、これまでのところ、INRをデータ表現として直接学習する一般的な方法は存在しない。
グリッドベースの機能や操作に逆戻りすることなく、任意のタイプのinrsで直接学習や推論を行うための原則付きディープラーニングフレームワークを導入する。
InR-Netsは、低差分シーケンスでINRを評価し、ネットワーク全体の準モンテカルロ(QMC)統合を可能にする。
我々は INR-Nets が $L^2$ 関数の間の写像の大きなクラスにおける普遍近似であることを証明した。
さらに、INR-Net は経験的測度の下で収束勾配を持ち、バックプロパゲーションを可能にする。
inr-netを離散ネットワークの連続的一般化として設計し,事前学習モデルを用いて初期化可能とした。
InR$\to$label)タスクとセグメンテーション(INR$\to$INR)タスクによるINR-Netの学習を実演する。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - k* Distribution: Evaluating the Latent Space of Deep Neural Networks using Local Neighborhood Analysis [7.742297876120561]
ここでは,k*分布とその可視化手法を紹介する。
本手法では, サンプル分布の構造の保存を保証するため, 局所的近傍解析を用いる。
実験により、ネットワークの学習潜在空間内のサンプルの分布は、クラスによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-12-07T03:42:48Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Mean-field neural networks: learning mappings on Wasserstein space [0.0]
確率測度のワッサーシュタイン空間と関数の空間を対応づけたモデルに対する機械学習タスクについて検討する。
ニューラルネットワークの2つのクラスは、いわゆる平均場関数を学習するために提案される。
本稿では,時間依存型平均場問題の解法として,平均場ニューラルネットワークを用いたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-27T05:11:42Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z) - Mean-Field and Kinetic Descriptions of Neural Differential Equations [0.0]
この研究では、ニューラルネットワークの特定のクラス、すなわち残留ニューラルネットワークに焦点を当てる。
我々は、ネットワークのパラメータ、すなわち重みとバイアスに関する定常状態と感度を分析する。
残留ニューラルネットワークにインスパイアされた微視的ダイナミクスの修正は、ネットワークのフォッカー・プランクの定式化につながる。
論文 参考訳(メタデータ) (2020-01-07T13:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。