論文の概要: Why you should learn functional basis
- arxiv url: http://arxiv.org/abs/2112.07289v1
- Date: Tue, 14 Dec 2021 10:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 00:59:41.257171
- Title: Why you should learn functional basis
- Title(参考訳): なぜ機能的基礎を学ぶべきか
- Authors: Riccardo Marin, Souhaib Attaiki, Simone Melzi, Emanuele Rodol\`a, Maks
Ovsjanikov
- Abstract要約: 広く用いられる選択は、スペクトル埋め込みを通じて3Dオブジェクトを符号化することであり、微分作用素(典型的にはラプラシアン)の固有函数の切り離された部分集合によって、その点で仮定される値に関連付ける。
異なるアプリケーション向けの新しい、好ましい埋め込みを定義するいくつかの試みは、この10年でその光を見てきた。
近年,ラプラシア固有関数の学習代用として,新たな傾向がみられた。
同時に、多くの研究課題は未解決のままであり、新しい基底はLBO固有関数よりも優れているか、それらとどのように関連しているのか?
- 参考スコア(独自算出の注目度): 28.399668932184422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient and practical representation of geometric data is a ubiquitous
problem for several applications in geometry processing. A widely used choice
is to encode the 3D objects through their spectral embedding, associating to
each surface point the values assumed at that point by a truncated subset of
the eigenfunctions of a differential operator (typically the Laplacian).
Several attempts to define new, preferable embeddings for different
applications have seen the light during the last decade. Still, the standard
Laplacian eigenfunctions remain solidly at the top of the available solutions,
despite their limitations, such as being limited to near-isometries for shape
matching. Recently, a new trend shows advantages in learning substitutes for
the Laplacian eigenfunctions. At the same time, many research questions remain
unsolved: are the new bases better than the LBO eigenfunctions, and how do they
relate to them? How do they act in the functional perspective? And how to
exploit these bases in new configurations in conjunction with additional
features and descriptors? In this study, we properly pose these questions to
improve our understanding of this emerging research direction. We show their
applicative relevance in different contexts revealing some of their insights
and exciting future directions.
- Abstract(参考訳): 幾何学的データの効率的かつ実用的な表現は、幾何処理におけるいくつかの応用においてユビキタスな問題である。
広く用いられる選択は、スペクトル埋め込みを通じて3Dオブジェクトを符号化することであり、微分作用素(典型的にはラプラシアン)の固有関数の切り離された部分集合によって、その点で仮定される値に関連付ける。
異なるアプリケーションのための新しい望ましい埋め込みを定義するいくつかの試みは、過去10年間に光を見てきた。
それでも、標準ラプラシア固有函数は、形状マッチングの準同値に制限されるような制限にもかかわらず、利用可能な解の頂点に固に留まっている。
近年,ラプラシアン固有関数の学習代用法における新しい傾向がみられた。
同時に、多くの研究課題は未解決のままであり、新しい基底はLBO固有関数よりも優れているか、それらとどのように関連しているのか?
機能の観点からどのように振る舞うのか?
そして、これらのベースを新しい設定で、追加機能やディスクリプタとともにどのように活用するか?
本研究では,この新たな研究方向性の理解を深めるために,これらの疑問を適切に提起する。
異なる文脈におけるそれらの応用的関連性を示し、彼らの洞察とエキサイティングな将来の方向性を明らかにする。
関連論文リスト
- Generalized Few-Shot Point Cloud Segmentation Via Geometric Words [54.32239996417363]
ショットポイントクラウドセグメンテーションアルゴリズムは、ベースクラスのセグメンテーション精度を犠牲にして、新しいクラスに適応するように学習する。
一般化された数ショット点雲のセグメンテーションというより実践的なパラダイムの最初の試みを示す。
基本クラスと新規クラス間で共有される幾何学的要素を表す幾何学的単語を提案し,それらを新しい幾何学的意味表現に組み込む。
論文 参考訳(メタデータ) (2023-09-20T11:24:33Z) - Understanding and Improving Features Learned in Deep Functional Maps [31.61255365182462]
より深い関数型マップアプローチで学習した特徴は、異なる形状のポイントワイド記述子として利用できることを示す。
本稿では,学習特徴の構造的特性を促進するため,標準的な深部関数型マップパイプラインを効果的に修正することを提案する。
論文 参考訳(メタデータ) (2023-03-29T08:32:16Z) - The Lie-Group Bayesian Learning Rule [15.058161307401864]
Bayesian Learning Ruleは汎用アルゴリズム設計のためのフレームワークを提供するが、3つの理由から使うのは難しい。
任意の基底分布の変換によって後続がパラメータ化されるようなリー群に基づく拡張を提案する。
我々は,この新たな学習規則を用いて,生物学的に有望な属性を持つ深層学習のアルゴリズムを導出し,スパースな特徴を学習する。
論文 参考訳(メタデータ) (2023-03-08T06:14:55Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Hierarchical Learning in Euclidean Neural Networks [0.0]
ユークリッドニューラルネットワーク(texttte3nn)における高次(非スカラー)特徴の役割について検討する。
多重極展開を思い起こさせるような$l$の自然な特徴階層が見つかる。
論文 参考訳(メタデータ) (2022-10-10T15:26:00Z) - Comparing Baseline Shapley and Integrated Gradients for Local
Explanation: Some Additional Insights [3.871148938060281]
統合グラディエント(Sundararajan, Taly, & Yan, 2017)とベースラインシェープリー(Sundararajan, Najmi, 2020)の2つの新しい手法を検討する。
両者が同じ説明をし,その相違点を論じる。
また、ReLUアクティベーション機能を持つニューラルネットワークがモデルに適合するかどうかをシミュレーション研究で調べる。
論文 参考訳(メタデータ) (2022-08-12T03:18:15Z) - Algebraic Machine Learning with an Application to Chemistry [0.0]
我々はスムーズな仮定に頼ることなく、微粒な幾何学的情報をキャプチャする機械学習パイプラインを開発した。
特に,基礎変数の特異点近傍にある点を数値的に検出する手法を提案する。
論文 参考訳(メタデータ) (2022-05-11T22:41:19Z) - Provable Reinforcement Learning with a Short-Term Memory [68.00677878812908]
我々はPMDPsの新しいサブクラスについて研究し、その潜在状態は、最近の短い長さ$m$の履歴によって復号化することができる。
特に、リッチ・オブザーブレーション・セッティングにおいて、指数関数的にスケールするサンプル複雑性を持つ新しい「モーメントマッチング」アプローチを用いて、新しいアルゴリズムを開発する。
以上の結果から,これらの環境下での強化学習には短期記憶が十分であることが示唆された。
論文 参考訳(メタデータ) (2022-02-08T16:39:57Z) - A New Representation of Successor Features for Transfer across
Dissimilar Environments [60.813074750879615]
多くの実世界のRL問題は、異なるダイナミクスを持つ環境間での移動を必要とする。
ガウス過程を用いて後継特徴関数をモデル化する手法を提案する。
我々の理論的解析は、この手法の収束と、後続特徴関数のモデル化における有界誤差を証明している。
論文 参考訳(メタデータ) (2021-07-18T12:37:05Z) - Towards Better Laplacian Representation in Reinforcement Learning with
Generalized Graph Drawing [88.22538267731733]
ラプラシアン表現は、状態に対する簡潔で情報的な表現を提供する。
近年の研究はスペクトルグラフ描画の目的を最小化することを提案しているが、固有ベクトル以外の大域最小化器は無限に多数存在する。
学習したラプラシア表現がより探索的な選択肢とより良い報酬形成をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-12T16:14:02Z) - Learning a Single Neuron with Bias Using Gradient Descent [53.15475693468925]
単一ニューロンをバイアス項で学習する基本的な問題について検討する。
これはバイアスのないケースとは大きく異なり、より難しい問題であることを示す。
論文 参考訳(メタデータ) (2021-06-02T12:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。