論文の概要: Learning to Rasterize Differentiable
- arxiv url: http://arxiv.org/abs/2211.13333v1
- Date: Wed, 23 Nov 2022 22:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:56:01.038691
- Title: Learning to Rasterize Differentiable
- Title(参考訳): 差別化の学習
- Authors: Chenghao Wu, Zahra Montazeri, Tobias Ritschel
- Abstract要約: 微分可能化は、プリミティブ化の一般的な定式化を別のものに変更する。
望ましい目標に最も信頼性を集中させるという点で、どの程度のソフト化が最高のパフォーマンスを提供するのか、正確には明らかになっていない。
本研究では,パラメトリックレンダリングのメタラーニングと,一組の逆タスク上のS字形について検討する。
- 参考スコア(独自算出の注目度): 17.188689579350072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable rasterization changes the common formulation of primitive
rasterization -- which has zero gradients almost everywhere, due to
discontinuous edges and occlusion -- to an alternative one, which is not
subject to this limitation and has similar optima. These alternative versions
in general are ''soft'' versions of the original one. Unfortunately, it is not
clear, what exact way of softening will provide the best performance in terms
of converging the most reliability to a desired goal. Previous work has
analyzed and compared several combinations of softening. In this work, we take
it a step further and, instead of making a combinatorical choice of softening
operations, parametrize the continuous space of all softening operations. We
study meta-learning a parametric S-shape curve as well as an MLP over a set of
inverse rendering tasks, so that it generalizes to new and unseen
differentiable rendering tasks with optimal softness.
- Abstract(参考訳): 微分可能ラスタ化は、ほぼ至る所で不連続な辺と閉塞によって勾配がゼロとなる原始ラスタ化の共通な定式化を、この制限の対象にならず、類似のオプティマを持つ別のものに変更する。
これらの代替バージョンは、元々のバージョンの'soft'バージョンである。
残念ながら、どのようなソフト化の正確な方法が、最も高い信頼性を望ましい目標にまとめるという点で、最高のパフォーマンスを提供するのかは明らかではない。
これまでの研究は、軟化のいくつかの組み合わせを分析し、比較してきた。
そこで本研究では, ソフト化操作を組合せ的に選択する代わりに, ソフト化操作の連続空間をパラメータ化する。
パラメトリックなs字曲線とmlpを逆レンダリングタスクのセットでメタラーニングすることで、最適なソフトネスで新しい識別不能なレンダリングタスクに一般化する。
関連論文リスト
- Variance-reduced Clipping for Non-convex Optimization [24.765794811146144]
グラディエント・クリッピング(Gradient clipping)は、大規模言語モデリングのようなディープラーニングアプリケーションで用いられる技法である。
最近の実験的な訓練は、秩序の複雑さを緩和する、非常に特別な振る舞いを持っている。
論文 参考訳(メタデータ) (2023-03-02T00:57:38Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Smooth over-parameterized solvers for non-smooth structured optimization [3.756550107432323]
非滑らか性 (non-smoothness) は、空間性、群空間性、低ランクエッジ、鋭いエッジなどの解の構造的制約を符号化する。
我々は、基礎となる非滑らかな最適化問題の非重み付きだが滑らかな過度パラメータ化を運用する。
我々の主な貢献は変数の一部を明示的に最小化することで新しい定式化を定義する変数射影(VarPro)を適用することです。
論文 参考訳(メタデータ) (2022-05-03T09:23:07Z) - STORM+: Fully Adaptive SGD with Momentum for Nonconvex Optimization [74.1615979057429]
本研究では,スムーズな損失関数に対する期待値である非バッチ最適化問題について検討する。
我々の研究は、学習率と運動量パラメータを適応的に設定する新しいアプローチとともに、STORMアルゴリズムの上に構築されている。
論文 参考訳(メタデータ) (2021-11-01T15:43:36Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - A Generalized Framework for Edge-preserving and Structure-preserving
Image Smoothing [43.929512514217855]
画像の平滑化はコンピュータビジョンとグラフィックスの応用における基本的な手順である。
私たちのフレームワークは、矛盾する平滑な振る舞いを達成できる多様な平滑な性質を達成できます。
簡便かつ効果的な手法として,本手法の性能を維持しつつ,提案手法のコストを削減する手法を提案する。
論文 参考訳(メタデータ) (2021-07-15T00:55:27Z) - Stochastic Projective Splitting: Solving Saddle-Point Problems with
Multiple Regularizers [4.568911586155097]
本稿では、包含問題に対する単調アルゴリズムの射影分割(PS)系列の新たな変種について述べる。
勾配降下上昇に伴う収束問題なしに、ロバストMLのような応用で生じるmin-maxおよび非協調ゲーム定式化を解くことができる。
論文 参考訳(メタデータ) (2021-06-24T14:48:43Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。