論文の概要: Why you should learn functional basis
- arxiv url: http://arxiv.org/abs/2112.07289v1
- Date: Tue, 14 Dec 2021 10:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 00:59:41.257171
- Title: Why you should learn functional basis
- Title(参考訳): なぜ機能的基礎を学ぶべきか
- Authors: Riccardo Marin, Souhaib Attaiki, Simone Melzi, Emanuele Rodol\`a, Maks
Ovsjanikov
- Abstract要約: 広く用いられる選択は、スペクトル埋め込みを通じて3Dオブジェクトを符号化することであり、微分作用素(典型的にはラプラシアン)の固有函数の切り離された部分集合によって、その点で仮定される値に関連付ける。
異なるアプリケーション向けの新しい、好ましい埋め込みを定義するいくつかの試みは、この10年でその光を見てきた。
近年,ラプラシア固有関数の学習代用として,新たな傾向がみられた。
同時に、多くの研究課題は未解決のままであり、新しい基底はLBO固有関数よりも優れているか、それらとどのように関連しているのか?
- 参考スコア(独自算出の注目度): 28.399668932184422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient and practical representation of geometric data is a ubiquitous
problem for several applications in geometry processing. A widely used choice
is to encode the 3D objects through their spectral embedding, associating to
each surface point the values assumed at that point by a truncated subset of
the eigenfunctions of a differential operator (typically the Laplacian).
Several attempts to define new, preferable embeddings for different
applications have seen the light during the last decade. Still, the standard
Laplacian eigenfunctions remain solidly at the top of the available solutions,
despite their limitations, such as being limited to near-isometries for shape
matching. Recently, a new trend shows advantages in learning substitutes for
the Laplacian eigenfunctions. At the same time, many research questions remain
unsolved: are the new bases better than the LBO eigenfunctions, and how do they
relate to them? How do they act in the functional perspective? And how to
exploit these bases in new configurations in conjunction with additional
features and descriptors? In this study, we properly pose these questions to
improve our understanding of this emerging research direction. We show their
applicative relevance in different contexts revealing some of their insights
and exciting future directions.
- Abstract(参考訳): 幾何学的データの効率的かつ実用的な表現は、幾何処理におけるいくつかの応用においてユビキタスな問題である。
広く用いられる選択は、スペクトル埋め込みを通じて3Dオブジェクトを符号化することであり、微分作用素(典型的にはラプラシアン)の固有関数の切り離された部分集合によって、その点で仮定される値に関連付ける。
異なるアプリケーションのための新しい望ましい埋め込みを定義するいくつかの試みは、過去10年間に光を見てきた。
それでも、標準ラプラシア固有函数は、形状マッチングの準同値に制限されるような制限にもかかわらず、利用可能な解の頂点に固に留まっている。
近年,ラプラシアン固有関数の学習代用法における新しい傾向がみられた。
同時に、多くの研究課題は未解決のままであり、新しい基底はLBO固有関数よりも優れているか、それらとどのように関連しているのか?
機能の観点からどのように振る舞うのか?
そして、これらのベースを新しい設定で、追加機能やディスクリプタとともにどのように活用するか?
本研究では,この新たな研究方向性の理解を深めるために,これらの疑問を適切に提起する。
異なる文脈におけるそれらの応用的関連性を示し、彼らの洞察とエキサイティングな将来の方向性を明らかにする。
関連論文リスト
- Disentangled Representation Learning with the Gromov-Monge Gap [65.73194652234848]
乱れのないデータから歪んだ表現を学習することは、機械学習における根本的な課題である。
本稿では,2次最適輸送に基づく非交叉表現学習手法を提案する。
提案手法の有効性を4つの標準ベンチマークで示す。
論文 参考訳(メタデータ) (2024-07-10T16:51:32Z) - Lens functions for exploring UMAP Projections with Domain Knowledge [1.104960878651584]
UMAPのための3種類のレンズ関数を提案する。
レンズ関数は、アナリストが質問にプロジェクションを適応させ、他の方法では隠されたパターンを明らかにすることを可能にする。
論文 参考訳(メタデータ) (2024-05-15T09:23:21Z) - Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - A singular Riemannian Geometry Approach to Deep Neural Networks III. Piecewise Differentiable Layers and Random Walks on $n$-dimensional Classes [49.32130498861987]
本稿ではReLUのような非微分可能活性化関数の事例について検討する。
最近の2つの研究は、ニューラルネットワークを研究するための幾何学的枠組みを導入した。
本稿では,画像の分類と熱力学問題に関する数値実験を行った。
論文 参考訳(メタデータ) (2024-04-09T08:11:46Z) - Generalized Few-Shot Point Cloud Segmentation Via Geometric Words [54.32239996417363]
ショットポイントクラウドセグメンテーションアルゴリズムは、ベースクラスのセグメンテーション精度を犠牲にして、新しいクラスに適応するように学習する。
一般化された数ショット点雲のセグメンテーションというより実践的なパラダイムの最初の試みを示す。
基本クラスと新規クラス間で共有される幾何学的要素を表す幾何学的単語を提案し,それらを新しい幾何学的意味表現に組み込む。
論文 参考訳(メタデータ) (2023-09-20T11:24:33Z) - Understanding and Improving Features Learned in Deep Functional Maps [31.61255365182462]
より深い関数型マップアプローチで学習した特徴は、異なる形状のポイントワイド記述子として利用できることを示す。
本稿では,学習特徴の構造的特性を促進するため,標準的な深部関数型マップパイプラインを効果的に修正することを提案する。
論文 参考訳(メタデータ) (2023-03-29T08:32:16Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Comparing Baseline Shapley and Integrated Gradients for Local
Explanation: Some Additional Insights [3.871148938060281]
統合グラディエント(Sundararajan, Taly, & Yan, 2017)とベースラインシェープリー(Sundararajan, Najmi, 2020)の2つの新しい手法を検討する。
両者が同じ説明をし,その相違点を論じる。
また、ReLUアクティベーション機能を持つニューラルネットワークがモデルに適合するかどうかをシミュレーション研究で調べる。
論文 参考訳(メタデータ) (2022-08-12T03:18:15Z) - Algebraic Machine Learning with an Application to Chemistry [0.0]
我々はスムーズな仮定に頼ることなく、微粒な幾何学的情報をキャプチャする機械学習パイプラインを開発した。
特に,基礎変数の特異点近傍にある点を数値的に検出する手法を提案する。
論文 参考訳(メタデータ) (2022-05-11T22:41:19Z) - Learning a Single Neuron with Bias Using Gradient Descent [53.15475693468925]
単一ニューロンをバイアス項で学習する基本的な問題について検討する。
これはバイアスのないケースとは大きく異なり、より難しい問題であることを示す。
論文 参考訳(メタデータ) (2021-06-02T12:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。