論文の概要: From Patterson Maps to Atomic Coordinates: Training a Deep Neural
Network to Solve the Phase Problem for a Simplified Case
- arxiv url: http://arxiv.org/abs/2003.13767v1
- Date: Mon, 30 Mar 2020 19:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 07:18:27.679955
- Title: From Patterson Maps to Atomic Coordinates: Training a Deep Neural
Network to Solve the Phase Problem for a Simplified Case
- Title(参考訳): Patterson MapsからAtomic Coordinatesへ: ニューラルネットワークを訓練して、単純化されたケースの位相問題を解く
- Authors: David Hurwitz
- Abstract要約: 10個のランダムに配置された原子の単純な場合、ニューラルネットワークはパターソン写像から原子座標を推測するように訓練することができる。
ネットワーク出力はランダムに位置付けられた原子の3Dマップである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work demonstrates that, for a simple case of 10 randomly positioned
atoms, a neural network can be trained to infer atomic coordinates from
Patterson maps. The network was trained entirely on synthetic data. For the
training set, the network outputs were 3D maps of randomly positioned atoms.
From each output map, a Patterson map was generated and used as input to the
network. The network generalized to cases not in the test set, inferring atom
positions from Patterson maps.
A key finding in this work is that the Patterson maps presented to the
network input during training must uniquely describe the atomic coordinates
they are paired with on the network output or the network will not train and it
will not generalize. The network cannot train on conflicting data. Avoiding
conflicts is handled in 3 ways: 1. Patterson maps are invariant to translation.
To remove this degree of freedom, output maps are centered on the average of
their atom positions. 2. Patterson maps are invariant to centrosymmetric
inversion. This conflict is removed by presenting the network output with both
the atoms used to make the Patterson Map and their centrosymmetry-related
counterparts simultaneously. 3. The Patterson map does not uniquely describe a
set of coordinates because the origin for each vector in the Patterson map is
ambiguous. By adding empty space around the atoms in the output map, this
ambiguity is removed. Forcing output atoms to be closer than half the output
box edge dimension means the origin of each peak in the Patterson map must be
the origin to which it is closest.
- Abstract(参考訳): この研究は、10個のランダムに位置付けられた原子の単純な場合、ニューラルネットワークがパターソン写像から原子座標を推測するように訓練できることを示した。
ネットワークは完全に合成データに基づいて訓練された。
トレーニングセットでは、ネットワーク出力はランダムに位置付けられた原子の3Dマップであった。
各出力マップからパターソンマップが生成され、ネットワークへの入力として使用される。
ネットワークはテストセットにないケースに一般化され、パターソン写像から原子の位置を推定した。
この研究の鍵となる発見は、トレーニング中にネットワーク入力に提示されたパターソンマップは、ネットワーク出力上でペアリングされたアトミック座標を一意的に記述しなければならないか、ネットワークがトレーニングしないか、一般化しないかである。
ネットワークは、矛盾するデータではトレーニングできない。
対立を避けるには3つの方法がある。
1.パターソン写像は翻訳に不変である。
この自由度を取り除くために、アウトプットマップは原子の位置の平均に集中している。
2.パターソン写像は中心対称反転に不変である。
この衝突は、パターソンマップとそれらの中心対称性関連原子を同時に作るために使用される原子の両方でネットワーク出力を提示することで取り除かれる。
3. パターソン写像は、パターソン写像の各ベクトルの原点が曖昧であるため、一意に座標の集合を記述するものではない。
出力マップに原子の周りに空の空間を加えることで、この曖昧さは取り除かれる。
出力原子を出力ボックスのエッジ次元の半分近くに強制することは、パターソン写像の各ピークの起源が最も近い原点であることを意味する。
関連論文リスト
- Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - PartSLAM: Unsupervised Part-based Scene Modeling for Fast Succinct Map
Matching [3.42658286826597]
本稿では,地図マッチングサブタスクのみからなる高速簡潔なマップマッチングを目的とした,最初の手法を提案する。
公開可能なラディッシュデータセットを用いた地図マッチング実験の結果,提案手法が地図マッチングと大幅な高速化を実現していることを示す。
本稿では,標準的な2次元点集合マップに焦点をあてるが,我々のアプローチは広い範囲の地図形式に適用可能であると信じている。
論文 参考訳(メタデータ) (2023-06-19T08:54:21Z) - NCP: Neural Correspondence Prior for Effective Unsupervised Shape
Matching [31.61255365182462]
我々は3次元形状間の対応を計算するための新しいパラダイムであるニューラル対応優先(NCP)を提案する。
我々のアプローチは完全に教師なしであり、挑戦する場合でも高品質な対応に繋がる可能性がある。
NCPは、多くのタスクにおいて、データ効率、高速、そして最先端の結果であることを示す。
論文 参考訳(メタデータ) (2023-01-14T07:22:18Z) - Primitive Graph Learning for Unified Vector Mapping [14.20286798139897]
GraphMapperは、衛星画像からエンドツーエンドのベクトルマップを抽出するための統合フレームワークである。
ベクトル形状予測,正規化,トポロジー再構成を独自の原始グラフ学習問題に変換する。
提案手法は,両タスクをベンチマークで8~10%向上させる。
論文 参考訳(メタデータ) (2022-06-28T12:33:18Z) - Tensor network to learn the wavefunction of data [0.0]
桁3を手書きする方法はいくつありますか。
手書き桁MNISTのデータセットを、繰り返し始めるまで追加イメージをサンプリングすることによって拡張することを想像してください。
我々は、桁3のすべての結果の画像の集合を「フルセット」と呼んでいる。
論文 参考訳(メタデータ) (2021-11-15T19:00:01Z) - Learning 3D Dense Correspondence via Canonical Point Autoencoder [108.20735652143787]
同一カテゴリの3次元形状間の密接な対応を予測できる標準点オートエンコーダ(CPAE)を提案する。
オートエンコーダは、2つの重要な機能を実行する: (a) 任意に順序付けられた点雲を標準プリミティブに符号化し、 (b) プリミティブを元の入力インスタンス形状に復号する。
論文 参考訳(メタデータ) (2021-07-10T15:54:48Z) - PMP-Net: Point Cloud Completion by Learning Multi-step Point Moving
Paths [54.459879603473034]
我々はPMP-Netと呼ばれる新しいニューラルネットワークを設計し、地球移動体の動作を模倣する。
不完全な入力の各点を移動させ、ポイントクラウドを完結させ、ポイント移動パスの合計距離が最も短くなる。
点レベルの厳密でユニークな対応を学習し、不完全な形状と完全なターゲットの間の詳細なトポロジーと構造的関係を捉えることができる。
論文 参考訳(メタデータ) (2020-12-07T01:34:38Z) - Deep Positional and Relational Feature Learning for Rotation-Invariant
Point Cloud Analysis [107.9979381402172]
点雲解析のための回転不変深層ネットワークを提案する。
ネットワークは階層的であり、位置的特徴埋め込みブロックと関係的特徴埋め込みブロックという2つのモジュールに依存している。
実験では、ベンチマークデータセット上で最先端の分類とセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2020-11-18T04:16:51Z) - Refinement of Predicted Missing Parts Enhance Point Cloud Completion [62.997667081978825]
点雲完了は、部分的な観測から3次元形状の点集合表現を用いて完全な幾何学を予測するタスクである。
従来のアプローチでは、不完全点集合によって供給されるエンコーダ・デコーダモデルにより、点雲全体を直接推定するニューラルネットワークが提案されていた。
本稿では、欠落した幾何を計算し、既知の入力と予測点クラウドを融合することに焦点を当てたエンドツーエンドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:01:23Z) - Monocular Depth Estimation Using Multi Scale Neural Network And Feature
Fusion [0.0]
ネットワークは2つの異なるブロックを使用し、まず、各特徴マップの畳み込みとマージに異なるフィルタサイズを使用する。
第2ブロックは、完全に連結された層の代わりに拡張畳み込みを使用し、計算を減らし、受容場を増大させる。
我々は、RMSE損失とSILog損失からなる深さ推定のための標準評価指標を用いて、Make 3Dデータセット、NYU Depth V2データセット、Kittiデータセットでネットワークをトレーニングし、テストする。
論文 参考訳(メタデータ) (2020-09-11T18:08:52Z) - Decomposable Pauli diagonal maps and Tensor Squares of Qubit Maps [91.3755431537592]
キュービット写像の任意の正積がそれ自身で分解可能であることを示す。
分解可能な四角形パウリ対角写像の錐を特徴づける。
論文 参考訳(メタデータ) (2020-06-25T16:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。