論文の概要: Can A Neural Network Hear the Shape of A Drum?
- arxiv url: http://arxiv.org/abs/2203.08073v1
- Date: Mon, 14 Mar 2022 08:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 16:48:30.762469
- Title: Can A Neural Network Hear the Shape of A Drum?
- Title(参考訳): ニューラルネットワークはドラムの形を聴くことができるか?
- Authors: Yueqi Zhao and Michael M. Fogler
- Abstract要約: 我々は,ラプラシア固有値の最初の100個を考慮し,多角形領域の形状を再構成するディープニューラルネットワークを開発した。
エンコーダ・デコーダ構造を有するネットワークは、入力スペクトルを潜在空間にマッピングし、正方形グリッド上の領域の離散画像を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We have developed a deep neural network that reconstructs the shape of a
polygonal domain given the first hundred of its Laplacian (or Schrodinger)
eigenvalues. Having an encoder-decoder structure, the network maps input
spectra to a latent space and then predicts the discretized image of the domain
on a square grid. We tested this network on randomly generated pentagons. The
prediction accuracy is high and the predictions obey the Laplacian scaling
rule. The network recovers the continuous rotational degree of freedom beyond
the symmetry of the grid. The variation of the latent variables under the
scaling transformation shows they are strongly correlated with Weyl' s
parameters (area, perimeter, and a certain function of the angles) of the test
polygons.
- Abstract(参考訳): 我々は,Laplacian(あるいはSchrodinger)固有値の最初の100個を与えられた多角形領域の形状を再構成するディープニューラルネットワークを開発した。
エンコーダ・デコーダ構造を持つネットワークは、入力スペクトルを潜在空間にマッピングし、正方形グリッド上の領域の離散画像を予測する。
我々はこのネットワークをランダムに生成された五角形でテストした。
予測精度が高く、予測はラプラシアのスケーリング規則に従う。
ネットワークはグリッドの対称性を超えた連続的な回転自由度を回復する。
スケーリング変換の下での潜伏変数の変動は、テストポリゴンのワイルのsパラメータ(面積、周囲および角度の特定の関数)と強く相関していることを示している。
関連論文リスト
- Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Semisupervised regression in latent structure networks on unknown
manifolds [7.5722195869569]
ランダムドット積グラフは、それぞれの潜在位置の内積によって与えられる確率を持つ2つのノードの間にエッジを形成する。
本稿では,サンプル外ノードの応答変数を予測するために,多様体学習およびグラフ埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T00:41:04Z) - Towards Verifying the Geometric Robustness of Large-scale Neural
Networks [8.60992681271439]
ディープニューラルネットワーク(DNN)は、敵対的な幾何学的変換に弱いことが知られている。
本稿では,複数の幾何変換と証明可能な保証の組み合わせに対して,大規模DNNのロバスト性を検証することを目的とする。
我々は、変換の最悪の組み合わせを見つけるために、ブラックボックス最適化分析装置GeoRobustを開発した。
論文 参考訳(メタデータ) (2023-01-29T14:44:27Z) - Learning Neural Volumetric Field for Point Cloud Geometry Compression [13.691147541041804]
我々は、ニューラルネットワークを学習することで、与えられた点雲の幾何学をコーディングすることを提案する。
空間全体を小さな立方体に分割し,各空でない立方体をニューラルネットワークと入力潜時符号で表現する。
ネットワークは、空間的および時間的冗長性を利用するために、1つのフレームまたは複数のフレームで全ての立方体間で共有される。
論文 参考訳(メタデータ) (2022-12-11T19:55:24Z) - TetGAN: A Convolutional Neural Network for Tetrahedral Mesh Generation [22.302674091474838]
四面体メッシュを生成するために設計された畳み込みニューラルネットワークTetGANを提案する。
我々の定式化は、四面体畳み込み、プーリング、アップサンプリング操作の定義を可能にする。
本稿では,テトラヘドラルメッシュを意味的に意味のある潜在空間にエンコードする手法について述べる。
論文 参考訳(メタデータ) (2022-10-11T19:03:22Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Towards General-Purpose Representation Learning of Polygonal Geometries [62.34832826705641]
我々は,多角形形状を埋め込み空間に符号化できる汎用多角形符号化モデルを開発した。
1)MNISTに基づく形状分類,2)DBSR-46KとDBSR-cplx46Kという2つの新しいデータセットに基づく空間関係予測を行う。
以上の結果から,NUFTspec と ResNet1D は,既存のベースラインよりも有意なマージンで優れていた。
論文 参考訳(メタデータ) (2022-09-29T15:59:23Z) - Neural Contourlet Network for Monocular 360 Depth Estimation [37.82642960470551]
我々は360度画像の解釈可能かつスパースな表現を構築する新しい視点を提供する。
本稿では,畳み込み型ニューラルネットワークと畳み込み型トランスフォーメーションブランチからなる,畳み込み型ニューラルネットワークを提案する。
エンコーダの段階では、2種類のキューを効果的に融合させる空間スペクトル融合モジュールを設計する。
論文 参考訳(メタデータ) (2022-08-03T02:25:55Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - From deep to Shallow: Equivalent Forms of Deep Networks in Reproducing
Kernel Krein Space and Indefinite Support Vector Machines [63.011641517977644]
ディープネットワークを等価な(不確定な)カーネルマシンに変換します。
次に、この変換がキャパシティ制御および一様収束に与える影響について検討する。
最後に、平坦表現の空間性について解析し、平坦な重みが(効果的に) 0p1 で正規化された Lp-"ノルム" であることが示される。
論文 参考訳(メタデータ) (2020-07-15T03:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。