論文の概要: Length Learning for Planar Euclidean Curves
- arxiv url: http://arxiv.org/abs/2102.01895v1
- Date: Wed, 3 Feb 2021 06:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 17:00:14.362257
- Title: Length Learning for Planar Euclidean Curves
- Title(参考訳): 平面ユークリッド曲線の長さ学習
- Authors: Barak Or and Liam Hazan
- Abstract要約: この研究は、正弦波データセットによって生成された平面サンプリング曲線の長さを学習することに焦点を当てる。
付加雑音と離散化誤差に対する頑健さを検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we used deep neural networks (DNNs) to solve a fundamental
problem in differential geometry. One can find many closed-form expressions for
calculating curvature, length, and other geometric properties in the
literature. As we know these concepts, we are highly motivated to reconstruct
them by using deep neural networks. In this framework, our goal is to learn
geometric properties from examples. The simplest geometric object is a curve.
Therefore, this work focuses on learning the length of planar sampled curves
created by a sine waves dataset. For this reason, the fundamental length axioms
were reconstructed using a supervised learning approach. Following these axioms
a simplified DNN model, we call ArcLengthNet, was established. The robustness
to additive noise and discretization errors were tested.
- Abstract(参考訳): 本研究では,深層ニューラルネットワーク(dnn)を用いて,微分幾何学における基本問題を解く。
曲率、長さ、その他の幾何学的性質を計算する多くの閉形式式を文献で見つけることができる。
これらの概念を知っているように、我々はディープニューラルネットワークを使用してそれらを再構築するモチベーションが高い。
このフレームワークでは、例から幾何学的性質を学ぶことが目標です。
最も単純な幾何学対象は曲線である。
そこで本研究では,正弦波データセットが生成する平面サンプリング曲線の長さを学習する。
このため,教師付き学習手法を用いて基本長公理を再構成した。
これらの公理に続いて、簡略化されたDNNモデルArcLengthNetが確立されました。
添加ノイズと離散誤差に対する堅牢性をテストした。
関連論文リスト
- Geometric Inductive Biases of Deep Networks: The Role of Data and Architecture [22.225213114532533]
ニューラルネットワークをトレーニングする場合、入力空間の曲率はそのアーキテクチャによって決定される変換の下で不変である。
平均幾何が低ランクである場合(例えばResNetの場合)、幾何学は入力空間の部分集合にのみ変化する。
論文 参考訳(メタデータ) (2024-10-15T19:46:09Z) - DeepRicci: Self-supervised Graph Structure-Feature Co-Refinement for
Alleviating Over-squashing [72.70197960100677]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)を改良したグラフで強化する上で重要な役割を果たしている。
GSLソリューションは、通常、タスク固有の監督(ノード分類)による構造改善に焦点を当てるか、GNN自体の固有の弱点を見落としている。
本稿では,典型的なGNNにおけるオーバー・スカッシングの問題を効果的に緩和する,自己教師付きグラフ構造-機能共分法について検討する。
論文 参考訳(メタデータ) (2024-01-23T14:06:08Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - From Complexity to Clarity: Analytical Expressions of Deep Neural Network Weights via Clifford's Geometric Algebra and Convexity [54.01594785269913]
我々は,標準正規化損失のトレーニングにおいて,深部ReLUニューラルネットワークの最適重みがトレーニングサンプルのウェッジ積によって与えられることを示した。
トレーニング問題は、トレーニングデータセットの幾何学的構造をエンコードするウェッジ製品機能よりも凸最適化に還元される。
論文 参考訳(メタデータ) (2023-09-28T15:19:30Z) - Exploring Data Geometry for Continual Learning [64.4358878435983]
非定常データストリームのデータ幾何を探索することにより,新しい視点から連続学習を研究する。
提案手法は,新しいデータによって引き起こされる幾何構造に対応するために,基底空間の幾何学を動的に拡張する。
実験により,本手法はユークリッド空間で設計したベースライン法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-04-08T06:35:25Z) - Neural networks learn to magnify areas near decision boundaries [32.84188052937496]
本研究では,非拘束型ニューラルネットワーク特徴写像による幾何形状の学習方法について検討する。
まず、無限の幅でランダムパラメータを持つニューラルネットワークが入力空間上で高度に対称なメトリクスを誘導することを示す。
分類タスクを実行するために訓練されたネットワークは、決定境界に沿った地域を拡大するために学習する。
論文 参考訳(メタデータ) (2023-01-26T19:43:16Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - Sheaf Neural Networks with Connection Laplacians [3.3414557160889076]
シーフニューラルネットワーク(英: Sheaf Neural Network、略称:SNN)は、グラフニューラルネットワークの一種で、グラフにノードとエッジにベクトル空間とそれらの空間の間の線形写像を割り当てるオブジェクトである。
それまでの研究では、ドメイン知識に基づいたシーフを手作業で構築することと、勾配に基づく手法によるシーフエンドツーエンドの学習という2つのダイメトリックなアプローチが提案されていた。
本研究ではリーマン幾何学から着想を得た新しい計算方法を提案する。
提案手法は,従来のSNNモデルと比較して計算オーバーヘッドが少なく,有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-17T11:39:52Z) - Differential Geometry in Neural Implicits [0.6198237241838558]
トライアングルメッシュの離散微分幾何とニューラル暗黙曲面の連続微分幾何を橋渡しするニューラル暗黙の枠組みを導入する。
ニューラルネットワークの微分可能特性と三角形メッシュの離散幾何学を利用して、ニューラルネットワークをニューラルネットワークの暗黙関数のゼロレベル集合として近似する。
論文 参考訳(メタデータ) (2022-01-23T13:40:45Z) - The Geometric Occam's Razor Implicit in Deep Learning [7.056824589733872]
勾配降下で訓練されたニューラルネットワークは、幾何学オッカムのラザーによって暗黙的に正規化されていることを示す。
一次元回帰の場合、幾何学モデルの複雑性は関数の弧長によって簡単に与えられる。
高次元設定では、幾何学モデルの複雑性は函数のディリクレエネルギーに依存する。
論文 参考訳(メタデータ) (2021-11-30T03:05:11Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。