論文の概要: A note on the variation of geometric functionals
- arxiv url: http://arxiv.org/abs/2207.09915v1
- Date: Wed, 20 Jul 2022 14:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:49:46.185225
- Title: A note on the variation of geometric functionals
- Title(参考訳): 幾何学的汎関数のバリエーションに関する一考察
- Authors: Nir Sochen
- Abstract要約: これらのEL方程式や、幾何学的および/または感覚的方程式を得るために、関数自身を変更するのは費用がかかる。
このノートの目的は、ELと勾配降下方程式を導出する正しい方法を示すことである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Calculus of Variation combined with Differential Geometry as tools of
modelling and solving problems in image processing and computer vision were
introduced in the late 80's and the 90s of the 20th century. The beginning of
an extensive work in these directions was marked by works such as Geodesic
Active Contours (GAC), the Beltrami framework, level set method of Osher and
Sethian the works of Charpiat et al. and the works by Chan and Vese to name
just a few. In many cases the optimization of these functional are done by the
gradient descent method via the calculation of the Euler-Lagrange equations.
Straightforward use of the resulted EL equations in the gradient descent scheme
leads to non-geometric and in some cases non sensical equations. It is
costumary to modify these EL equations or even the functional itself in order
to obtain geometric and/or sensical equations. The aim of this note is to point
to the correct way to derive the EL and the gradient descent equations such
that the resulted gradient descent equation is geometric and makes sense.
- Abstract(参考訳): 画像処理とコンピュータビジョンの問題をモデル化・解決するツールとしての微分幾何学と組み合わせた変分計算は、80年代後半から20世紀にかけて導入された。
これらの方向の広範な作品の始まりは、Geodesic Active Contours (GAC)、Beltrami framework、OsherとSethianのレベルセット方法、Charpiatらの作品、ChanとVeseの作品などによって特徴づけられた。
多くの場合、これらの関数の最適化はオイラー・ラグランジュ方程式の計算によって勾配降下法によって行われる。
勾配降下スキームにおける結果のel方程式の直接使用は、非幾何学的、場合によっては非官能的方程式に繋がる。
幾何学的および/またはセンチュアルな方程式を得るためにこれらのel方程式または関数自身を修正するのはコストがかかる。
このノートの目的は、ELを導出する正しい方法と、結果の勾配降下方程式が幾何学的で意味のある勾配降下方程式を示すことである。
関連論文リスト
- Extended convexity and smoothness and their applications in deep learning [0.0]
本稿では,非完全に理解された勾配と強い凸性に対する$mathcal$H$smoothnessアルゴリズムを提案する。
提案手法の有効性を実験により検証した。
論文 参考訳(メタデータ) (2024-10-08T08:40:07Z) - Towards Efficient Time Stepping for Numerical Shape Correspondence [55.2480439325792]
偏微分方程式(PDE)に基づく手法が確立されており、例えば古典的な熱核シグネチャを含む。
本研究の目的は,形状解析の文脈における時間積分の手法の有用な性質を特定できるかどうかを評価することである。
論文 参考訳(メタデータ) (2023-12-21T13:40:03Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Vectorized Adjoint Sensitivity Method for Graph Convolutional Neural
Ordinary Differential Equations [0.0]
この文書は、GCDEの随伴ダイナミクス計算のベクトル化実装を提供する。
エッジコンピューティングやmemristor Crossbarsのような応用では、オートグラデーションは利用できないため、随伴ダイナミクスのベクトル化による導出が必要である。
論文 参考訳(メタデータ) (2022-09-14T19:16:37Z) - Variational Wasserstein gradient flow [9.901677207027806]
本稿では、ワッサーシュタイン勾配流に対するスケーラブルな近位勾配型アルゴリズムを提案する。
この枠組みは熱方程式や多孔質媒質方程式を含む古典的なワッサーシュタイン勾配流を網羅する。
論文 参考訳(メタデータ) (2021-12-04T20:27:31Z) - Improving quantum linear system solvers via a gradient descent
perspective [3.0969191504482247]
我々は凸最適化の観点から量子線形系解法を再考する。
これにより、実行時にかなりの定数のイテレーションが発生します。
本研究では,子・子・子・ソマの最適量子線形系解法が勾配降下アルゴリズムとどのように関係しているかを示す。
論文 参考訳(メタデータ) (2021-09-09T13:16:28Z) - An Operator-Splitting Method for the Gaussian Curvature Regularization
Model with Applications in Surface Smoothing and Imaging [6.860238280163609]
一般ガウス曲率モデルの演算子分割法を提案する。
提案手法は,パラメータの選択,効率,性能に敏感ではない。
論文 参考訳(メタデータ) (2021-08-04T08:59:41Z) - q-Paths: Generalizing the Geometric Annealing Path using Power Means [51.73925445218366]
我々は、幾何学と算術の混合を特別なケースとして含むパスのファミリーである$q$-pathsを紹介した。
幾何経路から離れた小さな偏差がベイズ推定に経験的利得をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-01T21:09:06Z) - Leveraging Non-uniformity in First-order Non-convex Optimization [93.6817946818977]
目的関数の非一様洗練は、emphNon-uniform Smoothness(NS)とemphNon-uniform Lojasiewicz inequality(NL)につながる
新しい定義は、古典的な$Omega (1/t2)$下界よりも早く大域的最適性に収束する新しい幾何学的一階法を刺激する。
論文 参考訳(メタデータ) (2021-05-13T04:23:07Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。