論文の概要、ライセンス

# (参考訳) 入射変位場を用いた幾何一貫性ニューラル形状表現 [全文訳有]

Geometry-Consistent Neural Shape Representation with Implicit Displacement Fields ( http://arxiv.org/abs/2106.05187v1 )

ライセンス: CC BY-SA 4.0
Wang Yifan, Lukas Rahmann, Olga Sorkine-Hornung(参考訳) 詳細な3次元幾何学のための新しい表現である暗黙の変位場を示す。 本手法は, 従来の表面変形法, 変位マッピングにヒントを得て, 複素曲面を平滑な基底面として, ベース方向に沿った変位を表現し, 高周波信号が低周波信号によって幾何的に拘束されるような周波数ベース形状分解を行う。 重要なことに、この絡み合いは、構造によって固有の周波数階層を持つアーキテクチャ設計が整ったため、教師なしである。 暗黙的な変位場表面再構成と細部移動を探索し,優れた表現力,トレーニング安定性,一般化性を示す。

We present implicit displacement fields, a novel representation for detailed 3D geometry. Inspired by a classic surface deformation technique, displacement mapping, our method represents a complex surface as a smooth base surface plus a displacement along the base's normal directions, resulting in a frequency-based shape decomposition, where the high frequency signal is constrained geometrically by the low frequency signal. Importantly, this disentanglement is unsupervised thanks to a tailored architectural design that has an innate frequency hierarchy by construction. We explore implicit displacement field surface reconstruction and detail transfer and demonstrate superior representational power, training stability and generalizability.
公開日: Wed, 9 Jun 2021 16:26:18 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Geometry-Consistent Neural Shape Representation 幾何整合神経形状表現 0.75
with Implicit Displacement Fields Wang Yifan ETH Zurich 暗黙の変位場で Wang Yifan ETH Zurich 0.65
yifan.wang@inf.ethz. ch yifan.wang@inf.ethz. ch 0.47
Lukas Rahmann Lukas Rahmann 0.85
ETH Zurich ETH Zurich 0.85
lrahmann@student.eth z.ch lrahmann@student.eth z.ch 0.59
sorkine@inf.ethz.ch sorkine@inf.ethz.ch 0.59
Olga Sorkine-Hornung Olga (複数形 Olgas) 0.35
ETH Zurich ETH Zurich 0.85
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] V C . 9 ] 略称はC。 0.73
s c [ 1 v 7 8 1 5 0 sc [ 1 v 7 8 1 5 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract We present implicit displacement fields, a novel representation for detailed 3D geometry. 概要 詳細な3次元幾何学のための新しい表現である暗黙の変位場を示す。 0.52
Inspired by a classic surface deformation technique, displacement mapping, our method represents a complex surface as a smooth base surface plus a displacement along the base’s normal directions, resulting in a frequency-based shape decomposition, where the high frequency signal is constrained geometrically by the low frequency signal. 本手法は, 従来の表面変形法, 変位マッピングにヒントを得て, 複素曲面を平滑な基底面として, ベース方向に沿った変位を表現し, 高周波信号が低周波信号によって幾何的に拘束されるような周波数ベース形状分解を行う。 0.88
Importantly, this disentanglement is unsupervised thanks to a tailored architectural design that has an innate frequency hierarchy by construction. 重要なことに、この絡み合いは、構造によって固有の周波数階層を持つアーキテクチャ設計が整ったため、教師なしである。 0.53
We explore implicit displacement field surface reconstruction and detail transfer and demonstrate superior representational power, training stability and generalizability. 暗黙的な変位場表面再構成と細部移動を探索し,優れた表現力,トレーニング安定性,一般化性を示す。 0.60
1 Introduction Neural implicit functions have emerged as a powerful tool for representing a variety of signals. 1 はじめに 神経暗黙の関数は、様々な信号を表現するための強力なツールとして登場した。 0.67
Compared to conventional discrete representations, neural implicits are continuous and thus not tied to a specific resolution. 従来の離散表現と比較すると、ニューラル暗黙は連続的であり、したがって特定の解像度に縛られない。 0.57
Recently, neural implicits have gained significant attraction in a variety of applications ranging from 3D reconstruction [44, 32, 54, 36], neural rendering [31, 38], image translation [46, 11] to deformation approximation [17]. 近年,3次元再構成 [44, 32, 54, 36] , ニューラルネットワーク [31, 38] , 画像翻訳 [46, 11] , 変形近似 [17] など, 様々な応用において, ニューラルネットワークの暗黙的特徴が注目されている。 0.77
In this paper, we focus on neural implicit representations for 3D geometry. 本稿では,3次元幾何学におけるニューラル暗黙表現に着目した。 0.63
While neural implicits can theoretically model geometry with infinite resolution, in practice the output resolution is dependent on the representational power of neural nets. 神経陰影は理論上無限分解能で幾何学をモデル化できるが、実際には出力分解能は神経網の表現力に依存する。 0.67
So far, the research community approaches the problem from two main directions. これまでのところ、研究コミュニティは2つの方向からこの問題にアプローチしている。 0.60
The first is to partition the implicit function using spatial structures [8, 26, 28, 50], thus making the memory and computation demands dependent on the geometric complexity. 1つ目は空間構造 [8, 26, 28, 50] を使って暗黙の関数を分割することで、メモリと計算の要求は幾何学的複雑さに依存する。 0.78
The other direction focuses on improving networks’ ability to represent high-frequency signals, either in a preprocessing step (referred to as positional encoding) [31] or by using sinusoidal representation networks (SIREN) [45]. もう1つの方向は、前処理ステップ(位置符号化)[31]または正弦波表現ネットワーク(siren)[45]で、ネットワークが高周波信号を表現する能力を改善することに焦点を当てている。 0.83
However, training these networks is very challenging, as they are prone to overfitting and optimization local minima. しかし、これらのネットワークのトレーニングは非常に困難であり、ローカルなミニマをオーバーフィッティングし最適化する傾向にあります。 0.56
Inspired by the classic computer graphics technique, displacement mapping [15, 16], we propose a novel parameterization of neural implicit functions, implicit displacement field, abbreviated as IDF, to circumvent the above issues. 従来のコンピュータグラフィックス技術である変位マッピング [15, 16] に触発されて, 上記の問題を回避すべく, ニューラル暗黙関数, IDF と略される暗黙的変位場の新しいパラメータ化を提案する。 0.82
Our method automatically disentangles a given detailed shape into a coarse base shape represented as a continuous, low-frequency signed distance function and a continuous high-frequency implicit displacement field, which offsets the base iso-surface along the normal direction. 提案手法は, 与えられた詳細な形状を, 連続かつ低周波符号付き距離関数と連続した高周波暗示変位場として表される粗い基底形状に自動的に切り離す。 0.72
Preprint. Under review. プレプリント。 レビュー中。 0.63
Figure 1: Displacement mapping in 1D. 図1: 1dにおける変位マッピング。 0.71
The detailed surface (upper blue) is created by offsetting samples of the base surface (upper black) using the height map shown below. 詳細な表面(アップパーブルー)は、下記の高さマップを使用してベース表面(アップパーブラック)のサンプルをオフセットすることで生成される。 0.76
英語(論文から抽出)日本語訳スコア
The key novelty of our approach lies in extending the classic displacement mapping, which is discrete and lies only on the base surface, to a continuous function in the R3 domain and incorporating it into contemporary neural implicit representations, ergo achieving a disentanglement of geometric details in an unsupervised manner. 我々のアプローチの重要な特徴は、離散的であり、ベース表面のみに置かれる古典的な変位写像をR3領域の連続関数に拡張し、現代の神経暗黙の表現に組み入れ、教師なしの方法で幾何学的詳細の非絡み合いを達成することである。 0.77
Our main technical contribution includes 私たちの主な技術的貢献には 0.58
1. a principled and theoretically grounded extension of explicit discrete displacement mapping 1. 明示的離散変位写像の原理的・理論的根拠付き拡張 0.73
to the implicit formulation, 2. a neural architecture that creates a geometrically interpretable frequency hierarchy in the 暗黙の定式化に 2. 幾何学的に解釈可能な周波数階層を生成する神経構造 0.66
neural implicit shape representation by exploiting the inductive bias of SIRENs, and SIRENの誘導バイアスを利用した神経暗黙の形状表現 0.63
3. introducing transferable implicit displacement fields by replacing the common coordinates input with carefully constructed transferrable features, thus opening up new opportunities for implicit geometry manipulation and shape modeling. 3. 入力される共通座標を慎重に構築された伝達可能特徴に置き換えることで、移動可能な暗黙的変位場を導入することにより、暗黙的幾何操作と形状モデリングの新しい機会が開ける。 0.64
Systematic evaluations show that our approach is significantly more powerful in representing geometric details, while being lightweight and highly stable in training. 体系的な評価から,我々のアプローチは,より軽量で高度に安定なトレーニングでありながら,幾何学的詳細を表現する上ではるかに強力であることが示された。
訳抜け防止モード: システム評価は 我々のアプローチは 幾何学的詳細を表現するのに はるかに強力です 軽量で 高度に安定しています
0.75
2 Related work Hierachical neural implicit shape representation. 2関連作品 階層型神経暗黙の形状表現 0.67
Neural implicit shape representation was initially proposed by several works concurrently [34, 12, 30], and since then many works have sought to introduce hierarchical structures into the neural representation for better expressiveness and generalizability. ニューラルネットワークの暗黙的な形表現は、最初は複数の作品 [34, 12, 30] で同時に提案され、それ以来、より表現力と一般化性を高めるために、階層構造をニューラルネットワーク表現に導入しようと多くの研究が進められてきた。 0.57
The majority of these methods focus on spatial structures. これらの手法の大半は空間構造に焦点を当てている。 0.63
DLS [8] and PiFU [42, 43] use sparse regular voxels and dense 2D grid, respectively, to improve detail reconstruction. DLS [8] と PiFU [42, 43] はそれぞれ、細かな正規ボクセルと密度の高い2Dグリッドを使用して、詳細再構築を改善する。
訳抜け防止モード: DLS [8 ] と PiFU [42,43 ] はスパース正規ボクセルと高密度2Dグリッドを使用する。 それぞれ 細部再構築を改善するためです
0.77
In the spirit of classic approaches [20, 33], NSVF [28] and NGLOD [50] store learned latent codes in shape-adaptive octrees, leading to significantly higher reconstruction quality and increased rendering speed. 古典的アプローチ [20, 33], nsvf [28], nglod [50] の精神では, 形状適応性オクターレの潜在コードを学習し, 復元品質が著しく向上し, レンダリング速度が向上した。 0.79
A common disadvantage of these methods is that the memory use and model complexity are directly tied to the desired geometric resolution. これらの方法の一般的な欠点は、メモリ使用量とモデルの複雑さが、所望の幾何分解能に直接結びついていることである。
訳抜け防止モード: これらの方法の共通の欠点は メモリ使用量とモデルの複雑さは 希望する幾何学的解像度と直接結びついています
0.77
In parallel, other proposed methods learn the spatial partition. 並行して、他の提案手法は空間分割を学習する。 0.66
Some of these methods decompose the given shape using parameterized templates, such as anisotropic Gaussians [21], convex shape CVXNet [18, 13] or simple primitives [23], while others represent local shapes with small neural networks and combine them together either using Gaussians [22] or surface patches [52]. これらの手法のいくつかは、異方性ガウス[21]、凸形CVXNet[18,13]、単純プリミティブ[23]など、パラメータ化されたテンプレートを用いて所定の形状を分解する一方、小さなニューラルネットワークで局所的な形状を表現し、ガウス[22]または表面パッチ[52]を用いて組み合わせる。 0.77
Due to limitations of template functions and delicate spatial blending issues, these methods can only handle very coarse geometries. テンプレート関数の制限と繊細な空間混合問題のため、これらの手法は非常に粗いジオメトリしか扱えない。 0.72
Concurrently, Li and Zhang [27] propose a two-level neural signed distance function for single-view reconstruction. 同時に、Li と Zhang [27] はシングルビュー再構成のための2レベルニューラルサイン距離関数を提案する。 0.66
Exploiting the fact that most man-made shapes have flat surfaces, it represents a given shape as a coarse SDF plus a frontal and rear implicit displacement map for better detail construction. ほとんどの人工の形状が平らな表面を持つという事実を露呈し、粗いSDFと前方および後方の暗黙の変位マップとして、より詳細な構築を行う。 0.74
Besides having entirely different applications – we focus on representing significantly higher geometry resolutions – our implicit displacement is grounded in geometry principles and applies to general shapes. 全く異なる応用 – 非常に高い幾何分解度を表現することに集中する – を持つことに加えて、我々の暗黙の変位は幾何学の原理に根ざされ、一般的な形状に適用される。 0.58
High-frequency representation in neural networks As formally explained in [41, 4], neural networks have a tendency to learn low-frequency functions. ニューラルネットワークの高周波表現 [41, 4] では、ニューラルネットワークは低周波関数を学習する傾向がある。 0.74
To combat this issue, Mildenhall et al [31] incorporate “positional encoding” for neural rendering and demonstrate remarkable progress in terms of detail reconstruction, which is a sinusoidal mapping for the input signal, a practice later theoretically justified by Tancik et al [51]. この問題に対処するため、Mildenhallら[31]はニューラルレンダリングに“ポジションエンコーディング”を導入し、入力信号の正弦波マッピングである細部再構成(Tancikら[51]で理論的に正当化された手法)に関して顕著な進歩を示した。 0.79
Alternatively, SIREN also shows impressive advances in detail representation by replacing ReLU activation with sin functions. あるいは、SIRENはReLUアクティベーションを罪の関数に置き換えることで、ディテール表現の大幅な進歩を示す。 0.63
With these new networks gaining popularity, a few works delve deeper and apply a coarse-to-fine frequency hierarchy in the training process for deformable shape representation [35] and meshing [25]. これらの新しいネットワークの人気が高まるにつれて、いくつかの作品がより深く掘り下げ、変形可能な形状表現 [35] とメッシュ化 [25] のトレーニングプロセスに細かな周波数階層を適用している。
訳抜け防止モード: 新しいネットワークの人気が高まる中、いくつかの作品がより深く掘り下げる 変形可能な形状表現のためのトレーニングプロセスに粗い-微細周波数階層を適用する[35] メッシュ[25 ]。
0.72
In our method, we also create a frequency hierarchy by leveraging this new form of networks – not only in the training scheme but also explicitly in the construction of the networks to reflect our geometry-motivated design principles. この方法では、トレーニングスキームだけでなく、幾何学的モチベーションによる設計原則を反映したネットワークの構築においても、この新たな形式のネットワークを活用することで、周波数階層を作ります。 0.73
Detail transfer Detail transfer refers to transplanting the disentangled geometric details from a source shape onto a target object with high fidelity and plausibility. 詳細転送詳細転送(英: detail transfer transfer)とは、ソース形状から対象オブジェクトに不連続な幾何学的詳細を高い忠実性と信頼性で移植することを指す。
訳抜け防止モード: 詳細転送の詳細転送 ソース形状からターゲットオブジェクトに不連続な幾何学的詳細を高い忠実性と可能性で移植する。
0.82
Classic detail transfer methods represent surface details as normal displacements [7, 57, 47]. 古典的なディテール転送法は、表面の詳細を通常の変位 [7, 57, 47] として表現する。 0.63
The majority of them are parametric [56, 6, 48, 58, 49], relying on a consistent surface parameterization between the source and the target shape. それらの大部分は [56, 6, 48, 58, 49] パラメトリックであり、ソースとターゲット形状の間の一貫した表面パラメータ化に依存している。 0.77
Non-parametric approaches [10, 5], on the other hand, find best-matching surface patches 一方、非パラメトリックなアプローチ[10, 5]は、最もマッチする表面パッチを見つける 0.73
2 2 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: Method overview. 図2: メソッドの概要。 0.81
We represent detailed geometries as a sum of a coarse base shape represented as low-frequency signed distance function and a high-frequency implicit displacement field, which offsets the base iso-surface along the base’s normal directions. 低周波符号付き距離関数として表される粗い基底形状と、基地局面を標準方向に沿ってオフセットする高周波暗黙的変位場との和として詳細なジオメトリを表現する。 0.76
between the source and target, and copy the details iteratively from coarse to fine. ソースとターゲットの間を行き来し、詳細を粗いものから細かいものへと反復的にコピーします。 0.57
These classic approaches produce high quality results, but often require a pre-defined base surface or abundant user inputs. これらの古典的なアプローチは高品質な結果をもたらすが、しばしば事前に定義されたベースサーフェスや豊富なユーザー入力を必要とする。 0.53
In the “deep” realm, DeepCage [55] proposed a neural deformation method that maps solely the coarse geometry, hence allowing detail transfer without tackling detail disentanglement. deepcage [55] は「深い」領域において、粗い幾何学のみをマッピングする神経変形法を提案した。
訳抜け防止モード: Deep ” 領域では,DeepCage [55 ] がニューラル変形法を提案している。 地図は単に粗い幾何学であり、したがって細部が絡み合うことなく細部が移動できる。
0.64
Hertz et al [24] learn the coarse-to-detail correspondence iteratively from multi-scale training data, while DecorGAN [14] synthesizes details by upsampling a coarse voxel shape according to a style code of another shape using GANs. ヘルツら[24]は、複数スケールのトレーニングデータから反復的に粗視対応を学び、デコルガン[14]はganを用いて別の形状のスタイルコードに従って粗視ボクセル形状をアップサンプリングすることで詳細を合成する。
訳抜け防止モード: Hertz et al [ 24 ] は、マルチスケールトレーニングデータから、粗い - to - 詳細対応を反復的に学習する。 DecorGAN [14 ] は詳細を合成する GANを用いて、別の形状のスタイルコードに従って粗いボクセル形状をサンプリングすること。
0.69
All of these approaches use explicit representations, hence they are subject to self-intersection and resolution limitations. これらのアプローチはすべて明示的な表現を使用するため、自己分解と解決の制限が課される。 0.61
D2IM-Net [27] uses two planar displacement maps to transfer surface details by mapping the coordinates of the source and target shapes using part segementation, thus limiting the application to man-made rigid shapes. D2IM-Net [27] は2つの平面変位図を用いて, 部品の沈み込みによるソースとターゲット形状の座標をマッピングすることにより, 表面詳細を伝達する。 0.82
In comparison, our method does not require any correspondence mapping. 一方,本手法では対応マッピングは不要である。 0.62
3 Method We represent a shape with fine geometric details using two SIREN networks of different frequencies in the activation functions. 3方法 アクティベーション関数で異なる周波数の2つのSIRENネットワークを用いて、精密な幾何学的詳細を持つ形状を表現する。 0.75
The SIREN with lower frequency describes a smooth base surface; the SIREN with higher frequency adds microstructure to the base iso-surface by producing an implicit displacement field along the base’s normal direction (see Figure 2). 低い周波数のサイレンは滑らかな基底面を表しており、高い周波数のサイレンは基底の通常の方向に沿って暗黙の変位場を発生させることで、基底のiso面に微細構造を付加する(図2参照)。
訳抜け防止モード: 低周波SIRENは滑らかな基底面を記述する The SIREN with high frequency with the SIREN add microstructure to the base iso- surface by produced an implicit shift field along the base ’s normal direction。 図2参照)。
0.79
In this section, we first formally define implicit displacement field by generalizing the classic explicit and discrete displacement mapping in Section 3.1, then in Section 3.2 we introduce the network architectures and training strategies that are tailored to this definition, finaly in Section 3.3 we extend the implicit displacement to address transferability. 本節ではまず,古典的明示的および離散的変位写像を3.1節で一般化することにより,暗黙的変位場を正式に定義し,その後3.2節では,この定義に適合したネットワークアーキテクチャとトレーニング戦略を導入し,第3.3節では暗黙的変位場をアドレス転送可能性に拡張する。 0.69
3.1 Implicit displacement fields In classic displacement mapping as shown in Figure 1, high-frequency geometric details are obtained on a smooth base surface by taking samples from the base surface and offsetting them along their normal directions by a distance obtained (with interpolation) from a discrete height map. 3.1 入射変位場 図1に示すような古典的な変位マッピングでは、ベース面からサンプルを採取し、離散高さマップから得られる距離(補間)によって通常の方向に沿ってオフセットすることにより、滑らかなベース面上で高周波幾何学的詳細を得る。 0.63
There are two critical elements that impede direct adoption for implicit shape representation. 暗黙の形状表現の直接的採用を妨げる2つの重要な要素がある。 0.67
Firstly, the displacement mapping is defined discretely and only on the base surface, whereas implicit surface functions are typically defined continuously on the R3 domain. まず、変位写像は基底面上でのみ離散的に定義されるが、暗黙的曲面関数は通常 r3 領域上で連続的に定義される。 0.80
Secondly, while this definition assumes a known and fixed base surface, our goal is to learn the base surface and the displacement jointly on-the-fly. 第二に、この定義は既知の基底面と固定基面を仮定するが、我々の目標は基面と変位を共にオンザフライで学習することである。 0.65
Addressing the above challenges, we first define implicit displacement fields (IDF), which are continuous analog to height maps that extend displacement mapping to the R3 domain. 上記の課題に対処するために、まず、R3領域への変位マッピングを拡張する高さマップに連続的に類似した暗黙的変位場(IDF)を定義する。 0.66
Definition 1. Given two signed distance functions f and ˆf and their respective iso-surfaces at a given , an implicit displacement 定義1。 2つの符号付き距離関数 f , f とそれらの各等角面が与えられた , 暗黙的変位 0.71
value τ ∈ R, Sτ =(cid:8)x ∈ R3|f (x) = τ(cid:9) and ˆSτ = 値 τ ∈ R, Sτ =(cid:8)x ∈ R3|f(x) = τ(cid:9) および sτ = 0.86
Figure 3: An implicit displacement field for a 1D-curve. 図3: 1D曲線に対する暗黙の変位場。 0.72
The displacement is defined not only on the zero-isosurface S0 but also on arbitrary isosurfaces Sτ . 変位は零等面 s0 だけでなく任意の等面 sτ 上でも定義される。 0.64
x ∈ R3| ˆf (x) = τ x ∈ R3| シュフ(x) = τ 0.95
(cid:111) (cid:110) (cid:111) (cid:110) 0.78
3 +=base SDFimplicit displacementdetailed SDFimplicit inverse displacementimplicit displacement 3 +=base sdfimplicit displacementdetailed sdfimplicit inverse displacementimplicit displacement 0.85
英語(論文から抽出)日本語訳スコア
(cid:16) (cid:17) (cid:16)(cid:17) 0.73
(cid:16) field d: R3 → R defines the deformation from Sτ to ˆSτ such that (cid:16) 体 d: R3 → R は Sτ から Sτ への変形を定義する。 0.77
(cid:16) (cid:17) (cid:16) (cid:17) 0.78
∇f (x) (cid:107)∇f (x)(cid:107) . f (x) (cid:107) (x)(cid:107) である。 0.76
, where n = f (x) = ˆf n = である。 f (x) = sf 0.70
x + ˆf (x) n x + sf (x) n 0.65
(1) This definition is schematically illustrated in Figure 3, where the iso-surface S0 and Sτ are mapped to ˆS0 and ˆSτ . 1) この定義は図3で図式的に示され、iso-surface s0 と sτ は s0 と sτ に写像される。 0.74
Notably, the height map in classic displacement mapping is a discrete sampling of IDF for the limited case τ = 0. 特に、古典的変位写像における高さ写像は、制限ケース τ = 0 に対するIDFの離散サンプリングである。 0.60
In the context of surface decomposition described in this paper, our goal is to estimate the base surface S0 and the displacement d given an explicitly represented detailed surface ˆS0. 本論文では, 表面分解の文脈において, 基面S0と変位dを明示的に表現された細部S0と推定することを目的とする。 0.74
Following (1), we can learn the base SDF f and the displacement d, by minimizing the difference between the base and the ground truth signed distance at a query point x and its displaced position ˆx = x + ˆf (x) n, i.e., min|f (x) − ˆfGT (ˆx)|,∀x ∈ R3. 1) に従えば、基底 SDF f と変位 d は、基点 x における基底と基底真理符号距離の差を最小化し、その置換された位置 >x = x + >f (x) n 、すなわち min|f (x) − >fGT (>x)|,>x ∈ R3 を極小化することによって学習できる。 0.82
However, this solution requires evaluating ˆf (ˆx) at every iteration, which is a costly operation as the detailed shapes are typically given in explicit form, e g , as point clouds or meshes. しかし、この解法では各イテレーションにおいて、詳細な形状が通常、点雲やメッシュとして明示的な形で与えられるため、コストのかかる操作である sf ( shx) を評価する必要がある。 0.58
To address this issue, we consider the inverse implicit displacement field, denoted as ˆd, which defines a mapping from ˆSτ to Sτ as depicted in Figure 3: f この問題に対処するために、図3に示すように、sτ から Sτ への写像を定義づける sd と表記される逆の暗黙的変位場を考える。 0.66
(2) Assuming the displacement distance is small, we can replace n, the normal after inverse displacement, with that before the inverse displacement, i.e. 2) 変位距離が小さいと仮定すると、逆変位の後の通常の n を逆変位の前の n に置き換えることができる。 0.72
ˆx + ˆd (ˆx) n x + (x) n である。 0.73
= ˆf (ˆx) . は (x) である。 0.68
(cid:17) f (cid:17) f 0.82
ˆx + ˆd (ˆx) ˆn ~x + ~d(~x) ~n 0.47
= ˆf (ˆx) , where ˆn = x = sf(x) で、ここで sn = である。 0.54
(3) ∇f (ˆx) (cid:107)∇f (ˆx)(cid:107) . (3) また、cid:107(cid:107)は、cid:107(cid:107)である。 0.62
This is justified by the following theorem and corollary, which we prove in the Appendix A. Theorem 1. これは以下の定理と系によって正当化され、 Appendix A. Theorem 1 で証明される。 0.77
If function f : Rn → R is differentiable, Lipschitz-continuous with constant L and Lipschitz-smooth with constant M, then (cid:107)∇f (x + δ ∇f (x)) − ∇f (x)(cid:107) ≤ |δ|LM. 函数 f : rn → r が微分可能であれば、定数 l のリプシッツ連続、定数 m のリプシッツ-スムース (cid:107) は (x + δ sf (x)) − sf (x)(cid:107) ≤ |δ|lm である。 0.72
Corollary 1. If a signed distance function f satisfying the eikonal equation up to error  > 0, 第1話。 符号付き距離関数 f が偶数方程式を満たすとき、誤差 > > 0 となる。 0.61
(cid:12)(cid:12)(cid :12) < , is Lipschitz-smooth with constant M, then (cid:107)∇f (x + δ ∇f (x)) − ∇f (x)(cid:107) < (cid:12)(cid:12)(cid :12)(cid:12) < s は定数 M のリプシッツ・スムースであり、 (cid:107) =f (x + δ >f (x)) − sf (x)(cid:107) < 0.68
(cid:12)(cid:12)(cid :12)(cid:107)∇f(cid:107) − 1 (cid:12)(cid:12)(cid :107)(f(cid:107) − 1) 0.78
(1 + )|δ|M ∇f (x) (cid:107)∇f (x)(cid:107) and ˆx = x + ˆdn, by setting δ = ˆd/(cid:107)∇f (x)(cid:107) we have (cid:107)∇f (x) − ∇f (ˆx)(cid:107) < Recall that n = (1 + )|δ|M, i.e. (1+1)|δ|m f (x) (cid:107) = f (x)(cid:107) および sx = x + sdn とすると、δ = sd/(cid:107) = f (x)(cid:107) とすると、 (cid:107) = f (x) − sf (shx)(cid:107) < n = (1 + s)|δ|M, i となる。 0.76
the difference of unnormalized normals at x and ˆx is small. x と x における非正規化正規の差は小さい。 0.70
Using Eikonal equation, we can thus assume the difference of the normalized ones n and ˆn is also small, therefore obtain (3). 固有方程式を用いることで、正規化された n と n の差も小さいと仮定できるので、(3) が得られる。 0.69
The advantage of the formulation in (3) is that it allows supervision using precomputed the ground truth signed distance values, as well as any ground truth derivatives (see Section 3.2) at a set of sample locations ˆx. (3)における定式化の利点は、事前計算された基底真理符号距離値と、サンプル位置の集合における基底真理微分を用いた監督を可能にすることである(第3節参照)。 0.67
3.2 Network design and training 3.2 ネットワーク設計とトレーニング 0.86
The formulation (inverse) implicit field in the previous section is based on three assumptions: (i) f must be smooth, (ii) d must be small, (iii) f must satisfy the eikonal constraint up to an error bound. 前節の定式化(逆)暗黙の場は、3つの仮定に基づいている: (i) f は滑らかでなければならない、 (ii) d は小さくなければならない、 (iii) f はエラー境界まで固有制約を満たす必要がある。 0.81
In this section, we describe our network architecture and training technique, with emphasis on meeting these requirements. 本稿では,これらの要件を満たすことを重視し,ネットワークアーキテクチャとトレーニング手法について述べる。 0.77
Network architecture. ネットワークアーキテクチャ。 0.70
We propose to model f and ˆd with two SIRENs denoted as N ωB and N ωD, where ωB and ωD refer to the frequency hyperparameter in the sine activation functions x (cid:55)→ sin (ωx). N ωB と N ωD の 2 つの SIREN で f と ωd をモデル化することを提案するが、ここで ωB と ωD は sine 活性化関数 x (cid:55) → sin (ωx) の周波数ハイパーパラメータを指す。 0.74
Evidently, as shown in Figure 4, ω dictates an upper bound on the frequencies the network is capable of representing, thereby also determining the network’s inductive bias for smoothness. 図4に示すように、ωはネットワークが表現できる周波数の上限を決定するので、ネットワークの滑らかさに対する帰納的バイアスも決定する。 0.69
Correspondingly, we enforce the smoothness of f and detail-representing capacity of ˆd using a smaller ωB and a larger ωD. それに応じて、より小さい ωb とより大きな ωd を用いて、f の滑らかさと詳細表現能力を強制する。 0.58
Empirically, we find that ωB = 15 and ωD = 60 fits our needs in most cases. 経験上、ωb = 15 と ωd = 60 は、ほとんどの場合、我々のニーズに合致する。 0.77
Moreover, we add a scaled tanh activation to the last linear layer of N ωD, i.e. さらに, n ωd の最後に線形な層,すなわち, スケールした tanh 活性化を付加する。 0.77
α tanh (·), which ensures that the displacement distance is smaller than the constant α. α tanh (·) は、変位距離が定数 α よりも小さいことを保証する。 0.79
Networks containing high-frequency signals, e g N ωD, require large amounts of accurate ground truth data for supervision to avoid running into optimization local minima [35]. n ωd などの高周波信号を含むネットワークは、最適化された局所的ミニマ [35] にぶつかるのを避けるために、監視のために大量の正確な基底真理データを必要とする。
訳抜け防止モード: 高周波数信号, eg N ωD を含むネットワーク 監督のために大量の 正確な真実データが必要です 最適化されたローカルミニマ[35]に ぶつからないように
0.74
Consequently, when 4 そのため、いつ頃 4 0.75
英語(論文から抽出)日本語訳スコア
Figure 4: Smoothness control via SIREN’s frequency hyperparameter ω. Overfitting SIREN to the first image with ω = 30 (middle) and ω = 60 (right) shows that smaller ω leads to a smoother result. 図4: SIREN の周波数ハイパーパラメータ ω による滑らかさ制御 SIREN を ω = 30 (中) と ω = 60 (右) の 1 番目の画像にオーバーフィッティングすると、より小さい ω がより滑らかな結果をもたらす。 0.84
χ 1 0.8 0.6 χ 1 0.8 0.6 0.72
0.4 0.2 0 0 0.4 0.2 0 0 0.72
ν = 0.1 ν = 0.05 ν = 0.1 ν = 0.05 0.78
ν = 0.02 0.05 ν = 0.02 0.05 0.69
0.1 N ωB (x) 0.1 N ωB (x) 0.79
0.15 0.2 Figure 5: Attenuation as a function of base SDF. 0.15 0.2 図5: ベースSDFの関数としての減衰。 0.67
dense and accurate ground truth SDF values are not available, high-frequency signals often create artifacts. 密度が高く正確な基底真理 SDF の値が得られず、高周波信号はしばしばアーティファクトを生成する。 0.66
This is often the case in void regions when learning from point clouds, as only implicit regularization and fuzzy supervision is applied (see the first and last terms of (7)). これは、暗黙の正則化とファジィ・スーパーバイザリングのみを適用しているため、点雲から学ぶ場合、しばしば空白領域の場合である(第1項と最後の項 (7) を参照)。
訳抜け防止モード: これはしばしば、点雲から学ぶ際に空白領域で発生する。 暗黙の規則化と ファジィ・インスペクションが適用され (第1節と第7節の項を参照)。
0.68
To address this issue, we apply the following attenuation function χ to subdue N ωD depending on the distance to the base surface S0: この問題に対処するために、基底面 S0 の距離に依存する N ωD を抑えるために、以下の減衰関数を応用する。 0.76
1 + (N ωB (x)/ν)4 , where ν determines the speed of attenuation, as shown in Figure 5. 1 + (n ωb (x)/ν)4 , ここで ν は図 5 に示すように減衰速度を決定する。 0.87
Combining the aforementioned components, we can compute the signed distance of the detailed shape at query point x in two steps: 上記のコンポーネントを組み合わせることで、クエリポイントxにおける詳細形状の符号付き距離を2ステップで計算できる。 0.76
(4) χ (N ωB ) = (4) は (N ωB ) = 0.83
1 ˆf (x) = N ωB 1 f (x) = N ωB 0.87
(cid:18) f (x) = N ωB (x) x + χ (f (x)) N ωD (x) (cid:18) f (x) = N ωB (x) x + シュ (f (x)) N ωD (x) 0.84
(cid:19) ∇f (x) (cid:107)∇f (x)(cid:107) (cid:19) f (x) (cid:107) (x)(cid:107) 0.84
. (5) (6) Training. . (5) (6) 訓練。 0.82
Our implicit displacement formulated in (3) allows us to train the networks without ground truth signed distance values. (3)で定式化した暗黙の変位は、基底真理の符号付き距離値なしでネットワークをトレーニングできる。 0.66
Thus we adopt the loss from SIREN, which is constructed to learn SDFs directly from oriented point clouds by solving the eikonal equation with boundary constraint at the on-surface points. そこで, SIREN の損失は, SDF を向きの点から直接学習するために構築され, 平面上の点における境界制約を持つ固有方程式を解くことによって得られる。 0.71
Denoting the input domain as Ω (by default set to [−1, 1]3) and the ground truth point cloud as P = {(pi, ni)}, the loss is 入力領域をΩ(デフォルトで[−1, 1]3)とし、基底真理点クラウドをP = {(pi, ni)} とすると、損失は減少する。
訳抜け防止モード: 入力ドメインをΩ(デフォルト設定で [ −1, 1]3 )として記述する そして、P = { ( pi, ni ) } として基底真理点の雲である。 損失は
0.88
(cid:88) x∈Ω (cid:88) x図 0.61
(cid:12)(cid:12)(cid :12)(cid:107)∇ ˆf (x)(cid:107) − 1 (cid:12)(cid:12)(cid :12) + (cid:12)(cid:12)(cid :12)(cid:107)シュ・フ(x)(cid:107) − 1(cid:12)(cid:12)(ci d:12) + 0.78
λ0 L ˆf = (cid:88) (cid:88) λ0 L-f= (cid:88)(cid:88) 0.79
(p,n)∈P (cid:16) (cid:0)λ1| ˆf (p)| + λ2 (cid:16)−100 ˆf (x) (p,n)大P (cid:16) (cid:0)λ1| >f (p)| + λ2 (cid:16)−100 >f (x) 0.73
λ3 exp 1 −(cid:68)∇ ˆf (p) , n (cid:69)(cid:17)(cid :1) (cid:17) λ3 exp 1 −(cid:68)シュ・シュフ (p) , n (cid:69)(cid:17)(cid :1) (cid:17) 0.85
, + x∈Ω\P (7) , + x---P (7) 0.72
where λ{0,1,2,3} denote loss weights. λ{0,1,2,3} は損失重みを表す。 0.52
As the displacement and the attenuation functions depend on the base network, it is beneficial to have a well-behaving base network when training the displacement (see Section 4.2). 変位関数と減衰関数はベースネットワークに依存するため、変位を訓練する場合に十分なベースネットワークを持つことが有益である(セクション4.2)。 0.80
Therefore, we adopt a progressive learning scheme, which first trains N ωB , and then gradually increase the impact of N ωD. したがって、まずN ωB を訓練し、次に N ωD の影響を徐々に増大させるプログレッシブラーニング方式を採用する。 0.75
Notably, this frequency-based coarse-to-fine training technique has been adopted in recent works [35, 25], where it contributed to better optimization results. 特に、この周波数に基づく粗粒度トレーニング技術が近年の[35, 25]で採用され、最適化結果の改善に寄与している。 0.70
We implement the progressive training via symmetrically diminishing/increasi ng learning rates and loss weights for the base/displacement networks. ベース/変位ネットワークの学習率と損失重みを対称的に減少/増加させることにより、進行訓練を実施する。 0.62
For brevity, we describe the procedure for loss weights only, and we apply the same to the learning rates in our implementation. 簡潔性については,損失重量のみの手順を記述し,本実装における学習率にも同様に適用する。 0.73
First, we train N ωB by substituting ˆf in the loss (7) with f, resulting a base-only loss denoted Lf . まず、損失 (7) を f に置換することで N ωB を訓練し、結果として基底のみの損失は Lf と表される。 0.69
Then, starting from a (cid:18) training percentile Tm ∈ [0, 1], we combine Lf and L ˆf via 次に (cid:18) の %ile Tm ∈ [0, 1] のトレーニングから始めて、Lf と L sf を結合する。 0.80
(cid:19)(cid:19) (cid:19)(cid:19) 0.75
(cid:18) 1 + cos (cid:18) 1+cos 0.75
π , (8) where t ∈ [Tm, 1] denotes the current training progress. π , (8) t ∈ [Tm, 1] は現在のトレーニングの進捗を示す。 0.84
κLf + (1 − κ)L ˆf with κ = κLf + (1 − κ)L は κ = である。 0.89
1 2 (t − Tm) (1 − Tm) 1 2 (t − Tm)(1 − Tm) 0.84
5 5 0.85
英語(論文から抽出)日本語訳スコア
Transferable IDF T ωD トランスファーブルIDF T ωD 0.60
Figure 6: Illustrations for transferable and non-transferable implicit fields. 図6: 転送可能かつ非転送可能な暗黙のフィールドのイラスト。 0.69
The transferable modules are in pink and the shape-specific modules are in yellow. 転送可能なモジュールはピンク色で、形状固有のモジュールは黄色である。 0.73
3.3 Transferable implicit displacement field. 3.3 移動可能な暗黙の変位場。 0.50
Non-transferable IDF N ωD 非伝達性DFN ωD 0.69
As mentioned earlier, one advantage of using classic displacement mapping to create surface details is that once the mapping, known as surface parameterization, from the base surface to the height map is created, the displacement is independent of deformations of the base surface. 前述したように、表面詳細を作成するために古典的な変位マッピングを使用する利点の一つは、表面パラメータ化として知られるマッピングがベース表面から高さマップに作成されると、変位はベース表面の変形に依存しないということである。 0.73
We aim to emulate this effect for IDF by extending classical UV-coordinates produced by a surface parameterization to R3. 表面パラメータ化によって生成された古典的UV座標をR3に拡張することにより,IDFに対するこの効果をエミュレートすることを目指している。 0.53
While there are many ways to achieve this goal, in this paper we are interested in learning such extended coordinates, referred to as query features, from a single source shape without surface parameterization or correspondence estimation. この目的を達成するには多くの方法があるが、本稿では、表面パラメータ化や対応推定を伴わない単一のソース形状から、クエリ特徴と呼ばれる拡張座標を学ぶことに関心がある。 0.72
In particular, in order to train N ωD with derivatives as in (7), the query features must be differentiable with respect to the coordinates of the query point. 特に、(7) のような微分で N ωD を訓練するためには、クエリ点の座標に関してクエリ特徴を微分可能である必要がある。
訳抜け防止モード: 特に順に to train N ωD with derivatives as ( 7 ) クエリ機能は、クエリポイントの座標に関して微分可能でなければならない。
0.63
We construct the query features using two pieces of information: (i) a global context descriptor, φ (x), describing the location of the query point in relation to the base surface in a semantically meaningful way, (ii) the base signed distance value f (x), which gives more precise relative location with respect to the base surface. i) グローバルコンテキスト記述子 φ (x) で, 基礎面に対する問合せ点の位置を意味的に有意味な方法で記述し, (ii) 基点符号付き距離値 f (x) により, 基面に対してより正確な相対位置を与える。
訳抜け防止モード: 我々は2つの情報を用いてクエリ機能を構築する: (i)グローバルコンテキスト記述子。 φ ( x ) は、クエリポイントの位置を意味論的に意味のある方法でベース表面に関連して記述する。 (i) 基本符号付き距離値f(x) ベース表面に対して より正確に相対的な位置を与えます
0.83
In the following, we first describe the global context descriptor and then introduce the necessary modifications to N ωD so as to effectively learn from the combined information. 以下に、まずグローバルコンテキスト記述子を記述し、次に、組み合わせた情報から効果的に学習するために必要な修正をN ωDに導入する。 0.65
There exist many point feature extractors, mostly notably [39, 40], but none of them can produce features for off-surface points. 特に[39, 40]の点特徴抽出器は多数存在するが, 表面外の点の特徴を生成できない。 0.77
Inspired by occupancy convolutional networks (OCN) [36], we project the sparse on-surface point features obtained using a conventional point cloud encoder on a regular 3D (or 2D, c.f . 占有畳み込みネットワーク (OCN) [36] にインスパイアされ, 通常の3D (または2D, c.f) 上に, 従来の点雲エンコーダを用いて得られた粗い点特徴を投影する。 0.75
Section 4.3) grid, which is then fed to a convolutional module to propagate sparse on-surface point features to the off-surface area; finally, the query feature is obtained from the feature grids using bilinear interpolation. セクション43 グリッドは、その後、畳み込みモジュールに供給され、表面上のスパースな特徴を表面外領域に伝達し、最後に、両線形補間を用いて特徴グリッドからクエリ特徴を得る。
訳抜け防止モード: セクション4.3 ) グリッドは畳み込みモジュールに供給される to propagate sparse on― surface point features to the off- surface area 最後に、クエリ機能は、双線形補間を使って特徴グリッドから得られる。
0.85
In our implementation, since our entire training data is a single shape, we reduce the depth of the point cloud encoder by half to mitigate the risk of overfitting. 私たちの実装では、トレーニングデータ全体が単一の形なので、ポイントクラウドエンコーダの深さを半分に減らし、オーバーフィットのリスクを軽減します。 0.75
Furthermore, we use normals instead of point positions as the input to the point cloud encoder, making the features scale-invariant and translation-invarian t. さらに、ポイントクラウドエンコーダへの入力として、点位置の代わりに正規表現を用い、その特徴をスケール不変かつ翻訳不変にする。 0.60
Note that ideally the features should also be rotation-invariant. 理想的には、特徴は回転不変であるべきだ。 0.62
Nevertheless, as we empirically show later, normal features can in fact generalize under small local rotational deformations, which is sufficient for transferring displacements between two roughly aligned shapes. それでも、後述したように、通常の特徴は小さな局所的な回転変形の下で実際に一般化することができ、これは2つの略整形間の変位の移動に十分である。 0.58
We leave further explorations in this direction for future work. 今後の作業のために、この方向にさらなる調査を残します。 0.55
Now N ωD is tasked to predict the displacement value conditioning on φ (x) and f (x). 現在、N ωD は φ (x) と f (x) を条件とした変位値の予測を行う。 0.74
However, our empirical results suggest that SIREN does not handle high-dimensional inputs well (in our case, a 17-D vector, with φ (x) being 16-D). しかし,実験結果から,サイレンは高次元入力をうまく処理しないことが示唆された(この場合, φ (x) は 16-d である 17-d ベクトル)。 0.70
Therefore we adopt the FiLM conditioning [37, 19] as suggested by Pi-GAN [9], which feeds the conditioning latent vector not as part of the network input but rather as an affine transformation to the features of each layer. したがって、ネットワーク入力の一部としてではなく、各層の特徴に対するアフィン変換として条件付き潜伏ベクトルを供給しているPi-GAN[9]により提案されるFiLM条件付け[37,19]を採用する。 0.79
Specifically, treating φ (x) as the conditioning latent vector, a mapping network M maps φ (x) to a set of C-dimensional frequency modulators and phase shifters {γi, βi}, which are used to transform the i-th MLP layers to 具体的には、φ(x) を条件付き潜在ベクトルとして扱い、写像ネットワーク M は、φ(x) をC次元周波数変調器と位相シフト器 {γi, βi} の集合にマッピングし、i-th MLP 層を変換する。 0.75
(9) where Wi and bi are the trainable parameters in the MLP layer and ◦ denotes element-wise multiplication. (9) Wi と bi が MLP 層内のトレーニング可能なパラメータであり、t は要素ワイズ乗算を表す。 0.75
Since SIREN assumes normalized inputs in range (−1, 1) and the base signed distance value f (x) is small close to the S0 surface, where the displacement really matters, we scale f (x) with the following function before feeding it to the FiLM SIREN network: SIREN は (−1, 1) の範囲で正規化入力を仮定し、基本符号距離値 f (x) は S0 面に近く小さく、変位が本当に重要であるので、FiLM SIREN ネットワークに入力する前に次の関数で f (x) をスケールする。 0.84
1 + ◦ (Wi x + bi) + βi, 1 + (Wi x + bi) + βi, 0.82
(cid:18) (cid:19) (cid:18) (cid:19) 0.78
1 2 γi (cid:18) 1 1 2 γi (cid:18)1 0.81
ν (cid:19) ν (cid:19) 0.82
f (x) , ¯f (x) = tanh f (x) , f (x) = tanh 0.79
6 (10) Feature ExtractorSparse Point Cloudpoint normals 6 (10) Feature ExtractorSparse Point Cloudpoint normals 0.85
英語(論文から抽出)日本語訳スコア
Chamfer distance points to point distance ·10−3 / normal cosine distance ·10−2 チャムファー距離 ·10−3 / 正規コサイン距離 ·10−2 0.79
asian dragon camera dragon warrior アジアドラゴン カメラ・ドラゴン・ウォリアー 0.63
dragon wing ramesses thai statue vase lion ドラゴンウィング ラメセス・タイ 像の花瓶ライオン 0.60
Progressive FFN NGLOD (LOD4) 進歩 FFN NGLOD(LOD4) 0.78
4.96 / 4.02 4.62 / 1.51 5.10 / 4.00 5.94 / 7.25 5.68 / 5.41 4.24 / 2.30 5.23 / 7.01 5.92 / 1.93 4.96 / 4.02 4.62 / 1.51 5.10 / 4.00 5.94 / 7.25 5.68 / 5.41 4.24 / 2.30 5.23 / 7.01 5.92 / 1.93 0.52
1.66 / 4.05 1.56 / 1.15 1.80 / 3.77 2.46 / 8.12 2.01 / 4.98 1.47 / 2.47 7.16 / 16.7 1.86 / 2.18 1.66 / 4.05 1.56 / 1.15 1.80 / 3.77 2.46 / 8.12 2.01 / 4.98 1.47 / 2.47 7.16 / 16.7 1.86 / 2.18 0.52
NGLOD (LOD6) NGLOD(LOD6) 0.97
1.03 / 1.91 1.32 / 0.62 1.39 / 2.37 1.52 / 5.21 1.47 / 2.87 0.97 / 1.93 1.30 / 4.77 1.39 / 0.77 1.03 / 1.91 1.32 / 0.62 1.39 / 2.37 1.52 / 5.21 1.47 / 2.87 0.97 / 1.93 1.30 / 4.77 1.39 / 0.77 0.52
SIREN-3 ω = 60 SIREN-3 ω = 60 0.84
6.13 / 5.28 6.49 / 2.38 7.04 / 4.75 7.27 / 8.45 6.57 / 5.46 6.40 / 3.77 6.26 / 7.48 39.8 / 25.6 6.13 / 5.28 6.49 / 2.38 7.04 / 4.75 7.27 / 8.45 6.57 / 5.46 6.40 / 3.77 6.26 / 7.48 39.8 / 25.6 0.52
SIREN-7 ω = 30 SIREN-7 ω = 30 0.84
3.65 / 2.36 4.11 / 1.10 3.80 / 2.49 3.68 / 4.83 7.92 / 3.84 4.20 / 2.33 3.81 / 4.17 4.68 / 1.02 3.65 / 2.36 4.11 / 1.10 3.80 / 2.49 3.68 / 4.83 7.92 / 3.84 4.20 / 2.33 3.81 / 4.17 4.68 / 1.02 0.52
SIREN-7 ω = 60 SIREN-7 ω = 60 0.84
Direct Residual 7.24 / 4.03 直接残留 7.24 / 4.03 0.59
5.96 / 8.01 5.96 / 8.01 0.59
- - 17.3 / 18.9 49.7 / 38.5 81.3 / 19.5 - - 17.3 / 18.9 49.7 / 38.5 81.3 / 19.5 0.74
- 87.0 / 30.7 - 87.0 / 30.7 0.72
average 5.21 / 4.18 平均 5.21 / 4.18 0.69
2.50 / 5.43 2.50 / 5.43 0.59
1.30 / 2.56 1.30 / 2.56 0.59
10.8 / 7.90 10.8 / 7.90 0.59
4.48 / 2.77 4.48 / 2.77 0.59
- - Ours 0.94 / 1.36 1.29 / 0.34 1.27 / 1.50 1.49 / 4.56 1.35 / 1.49 1.35 / 1.58 0.92 / 2.92 1.33 / 0.42 1.24 / 1.77 - - 我々の 0.94 / 1.36 1.29 / 0.34 1.27 / 1.50 1.49 / 4.56 1.35 / 1.49 1.35 / 1.58 0.92 / 2.92 1.33 / 0.42 1.24 / 1.77 0.70
Table 1: Extended quantitative comparison. 表1: 定量的比較の拡張。 0.74
Among the benchmarking methods, only NGLOD at LOD-6, using 256× number of parameters compared to our model, can yield results close to ours. ベンチマーク手法の中では, LOD-6 における NGLOD のみ, 256 倍のパラメータを用いた場合, 我々のモデルに近い結果が得られる。 0.75
SIREN models with larger ω have severe convergence issues: despite our best efforts, the models still diverged in a majority of cases (see Figure 8 for examples). より大きな ω を持つサイレンモデルには深刻な収束問題があり、最善の努力にもかかわらず、モデルはまだ多くのケースで分岐している(例:図 8参照)。 0.70
Similarly Direct Residual using ω = 60 in the displacement net suffers from the same convergence issue. 同様に、変位ネットの ω = 60 を用いた直接残差は、同じ収束問題に苦しむ。 0.82
where ν is the attenuation parameter in (4). ここで ν は (4) の減衰パラメータである。 0.86
Denoting the modified displacement network as T ωD, we illustratively summarize the difference between transferable and non-transferable displacement field in Figure 6. 修正された変位ネットワークを T ωD と表現し、図6の移動可能変位場と非移動可能変位場の違いを例示的に要約する。 0.64
In summary, the signed distance function of the detailed shape in (6) can be rewritten as 要約すると、(6)における詳細形状の符号付き距離関数を書き換えることができる。 0.72
(cid:18) x + χ (f (x)) T ωD(cid:0) ¯f (x) , M (φ (x))(cid:1) ∇f (x) (cid:18) x + s (f (x)) t ωd(cid:0) sf (x) , m (φ (x))(cid:1) sf (x) 0.91
. (11) (cid:19) . (11) (cid:19) 0.83
(cid:107)∇f (x)(cid:107) (cid:107)f(x)(cid:10 7) 0.85
ˆf (x) = N ωB f (x) = N ωB 0.88
4 Results We now present the results of our method. 4結果 現在,本手法の結果について述べる。 0.72
Additional results can be found in the supplemental material. 追加結果は補足材料で見ることができる。 0.65
In Section 4.1, we evaluate our networks in terms of geometric detail representation by comparing with state-of-the-art methods on the single shape fitting task. 第4節1では,1つの形状適合タスクの最先端手法との比較により,幾何学的詳細表現の観点からネットワークを評価する。 0.68
We then evaluate various design components in an ablation study in Section 4.2. 次に, 第4.2節におけるアブレーション研究における各種設計要素の評価を行った。 0.56
Finally, we validate the transferability of the displacement fields in a detail transfer task in Section 4.3. 最後に,4.3節の詳細な伝達課題における変位場の移動性を検証する。 0.71
Implementation details. Except in Section 4.3, we use ωB = 15 and ωD = 60. 実装の詳細。 第4.3節を除いて、ωB = 15 と ωD = 60 を用いる。 0.73
By default, both the base and the displacement nets have 4 hidden layers with 256 channels each. デフォルトでは、ベースと変位ネットはそれぞれ256チャンネルの4つの隠された層を持つ。 0.82
The maximal displacement and attenuation factors described in Section 3.2 are set to α = 0.05 and ν = 0.02. セクション3.2で記述される最大変位と減衰係数はα = 0.05 と ν = 0.02 に設定される。 0.73
The loss weights λ{0,1,2,3} in (7) are set to 5, 400, 40 and 50, respectively, and the switching training percentile in (8) is set to Tm = 0.2. 7)における損失重量λ{0,1,2,3}をそれぞれ5,400,40,50とし、8)におけるスイッチングトレーニングパーセンタイルを0.2とする。 0.75
We train our models for 120 epochs using batch size 5000 and ADAM optimizer with initial learning rate of 0.0001, then gradually reduce the learning rate to 0.00001 using cosine annealing [29] after finishing 80% of the training epochs. 初期学習率0.0001のバッチサイズ5000とADAMオプティマイザを用いて120エポックのモデルをトレーニングし,トレーニングエポックの80%を完了した後,コサインアニール[29]を用いて0.00001まで学習率を低下させる。 0.73
Furthermore, to improve the convergence rate, we initialize SIREN models by pre-training the base model N ωB (and baseline SIREN, c.f . さらに収束率を改善するために、ベースモデル N ωB (およびベースライン SIREN, c.f) を事前学習することにより、SIRENモデルを初期化する。 0.71
Section 4.1) to a sphere with radius 0.5. セクション4.1) 半径0.5の球面へ 0.77
This initialization is optional for our training but is critical for baseline SIREN’s convergence. この初期化はトレーニングにはオプションですが、ベースラインのSIRENの収束には不可欠です。 0.65
Data. We test our method using 8 high-resolution shapes, including 6 from Sketchfab [1] under CC-BY-4.0 and 2 from Stanford 3DScanRepo [2]. データ。 我々は,Sketchfab [1]からCC-BY-4.0,Stanford 3DScanRepo [2]の6つを含む8種類の高分解能形状を用いて実験を行った。 0.69
Our transferable displacement model is tested using the FaceScape dataset [53]. 転送可能な変位モデルをFaceScapeデータセット[53]を用いてテストする。 0.72
We obtain the high-resolution mesh by first filling the holes in the provided low-resolution meshes using [3] and then applying the 4K displacement maps provided by the original dataset. 得られた低分解能メッシュに [3] を用いて穴を埋め、次に元のデータセットで提供される4K変位マップを適用して高分解能メッシュを得る。 0.66
We also use meshes provided by Berkiten et al [5], which contains pairs of already separated base and detailed shapes. 既に分離されたベースと詳細な形状のペアを含むBerkitenらによるメッシュも使用しています。 0.60
4.1 Detail representation. The methods we compare with are 1) Fourier feature network [51] with SOFTPLUS activation and 8 frequency bands trained from coarse-to-fine, as suggested by Park et al [35]; a total of 8 hidden layers each of size 256 are used to match our model size; additionally we apply a skip-connection in the middle layer as proposed in DeepSDF Park et al [34]; 2) NGLOD [50] trained using 4 and 6 levels of detail (LODs) corresponding to 643 and 2563 spatial resolution respectively, with LOD4 comparable with our model in terms of the number of parameters, 3) baseline SIREN, for which we 4.1 詳細表示。 The methods we compare with are 1) Fourier feature network [51] with SOFTPLUS activation and 8 frequency bands trained from coarse-to-fine, as suggested by Park et al [35]; a total of 8 hidden layers each of size 256 are used to match our model size; additionally we apply a skip-connection in the middle layer as proposed in DeepSDF Park et al [34]; 2) NGLOD [50] trained using 4 and 6 levels of detail (LODs) corresponding to 643 and 2563 spatial resolution respectively, with LOD4 comparable with our model in terms of the number of parameters, 3) baseline SIREN, for which we 0.79
7 7 0.85
英語(論文から抽出)日本語訳スコア
ground truth ours NGLOD LOD6 根拠の真理 我々の NGLODLOOD6 0.64
NGLOD LOD4 NGLODLOOD4 0.70
SIREN-7 ω = 30 SIREN-7 ω = 30 0.84
Figure 7: Comparison of detail reconstruction (better viewed with zoom-in). 図7:詳細再構築の比較(ズームインで見る)。 0.75
We show the best 4 methods according to Table 1, more results are provided in the supplemental. 表1によると、最高の4つの方法が補足として提供される。
訳抜け防止モード: 表1によると、最良の4つのメソッドを示します。 さらなる結果が 補足 で得られます。
0.65
trained three different variations in hope of overcoming training divergence issues; 4) direct residual, where we compose the signed distance value simply as the sum of base and displacement nets. トレーニングの分岐問題を克服するために3つの異なるバリエーションを訓練した; 4) 直接残留し、そこでは符号付き距離値をベースネットと変位ネットの和として構成する。 0.69
i.e. ˆf (x) = N ωB (x) + N ωD (x). i.e. f (x) = N ωB (x) + N ωD (x) である。 0.80
Since NGLOD requires ground truth SDF for supervision, we train it using the original implementation, for the rest methods we follow the same training protocol whenever possible and report the best result we can obtain. NGLODは、監督のために基礎的な真理SDFを必要とするため、元の実装を使ってトレーニングする。
訳抜け防止モード: NGLODは、監督のために真理SDFを必要とするため、元の実装を用いて訓練する。 残りの方法は 可能な限り同じトレーニングプロトコルに従って 最高の結果を報告します
0.71
Two-way point-to-point distance and normal cosine distance are computed as the evaluation metrics on 5 million points randomly sampled from meshes extracted using marching cubes with 5123 resolution. 5123分解能のマーチングキューブを用いて抽出したメッシュからランダムにサンプリングした500万点の評価指標として,双方向の点間距離と通常のコサイン距離を算出した。 0.61
As shown in Table 1, NGLOD trained with 6 LODs is the only method comparable with ours in terms of reconstruction accuracy. 表1に示すように、6個のLODで訓練したNGLODは、再建精度の点で、我々のものに匹敵する唯一の方法である。 0.52
Relying on spatial partition, NGLOD LOD6 requires storing more than 300 times as many as parameters as our model, yet as Figure 7 shows, our model represents the detailed geometries with much higher fidelity and overwhelmingly outperforms LOD4, which is still around 3 times as large as our model. NGLOD LOD6は、空間的分割に基づいて、我々のモデルに匹敵する300倍以上のパラメータを格納する必要があるが、図7に示すように、我々のモデルは、非常に忠実で、我々のモデルの3倍の大きさのLOD4よりも圧倒的に優れる詳細なジオメトリを表現している。
訳抜け防止モード: 空間分割に関する考察 NGLOD LOD6はモデルの300倍以上のパラメータを格納する必要があります。 しかし図7が示すように、我々のモデルはより忠実な詳細なジオメトリを表しています。 LOD4は圧倒的に優れています 模型の約3倍の大きさです
0.77
SIREN networks with larger ω have severe convergence issues. より大きな ω を持つサイレンネットワークは深刻な収束問題を持つ。 0.60
In order to match our model size and frequency, we attempted training with 7 hidden layers and ω = 60 (SIREN-7 ω = 60), but the training fails for most shapes even with sphere initialization (c.f . モデルのサイズと周波数を一致させるために、7つの隠蔽層とω = 60(SIREN-7 ω = 60)でトレーニングを試みたが、球初期化(c.f)であってもほとんどの形状ではトレーニングは失敗する。 0.69
Implementation Details) and gradient clipping, as shown in Figure 8. 図8に示すように、実装の詳細)と勾配クリッピング。 0.76
Direct residual differs from our method in that the displacement network simply predicts a residual signed distance value for the base network, and consequently the displacement net does not depend on the base surface by construction, which leads to similar convergence issues as baseline SIRENs with large ω. 直接残差は、変位ネットワークがベースネットワークの残差符号付き距離値を単純に予測することと異なり、従って変位ネットは構成によってベース表面に依存しないため、大きな ω を持つベースラインサイレンと同様の収束問題を引き起こす。 0.80
Figure 8: Example results from diverged SIREN and Direct Residual training. 図8: 散逸したサイレンと直接残留訓練の結果の例。 0.71
4.2 Ablation study 4.2 アブレーション研究 0.71
We study the effect of different design components described in Section 3.2, including the displacement scaling α tanh, the attenuation function χ and the progressive training (7). 本研究は, 変形スケーリングαタン, 減衰関数, 進行訓練 (7) など, セクション3.2で記述された異なる設計要素の効果について検討する。 0.79
First, as Table 2 shows, all the test modes converge within comparable range, even for the model with the least constraints. まず、表2が示すように、最小限の制約のあるモデルであっても、すべてのテストモードは同等の範囲に収束する。 0.70
This shows that our model is robust against violations of theoretical assumptions specified in Section 3.1. これは,本モデルが第3条1項に定める理論的仮定違反に対して堅牢であることを示している。 0.47
At the same time, the performance rises with increasingly constrained architecture and progressive training, suggesting that the proposed mechanisms further boost training stability. 同時に、アーキテクチャとプログレッシブトレーニングがますます制限され、提案されたメカニズムがトレーニングの安定性をさらに高めることを示唆している。 0.67
8 α tanh χ prog. 8 αタン χ プログ 0.68
training average CD ·10−3 訓練 平均cd ·10−3 0.65
(cid:88) (cid:88) (cid:88) (cid:88)(cid:88) 0.91
(cid:88) (cid:88) (cid:88)(cid:88) 0.74
(cid:88) 1.44 1.41 1.38 1.24 (cid:88) 1.44 1.41 1.38 1.24 0.62
Table 2: Ablation study. 表2:アブレーション研究。 0.79
Our model benefits from the proposed architectural and training designs, yet it is also robust against variations. 私たちのモデルは、提案されたアーキテクチャとトレーニングデザインの恩恵を受けますが、バリエーションに対して堅牢です。
訳抜け防止モード: 私たちのモデルは、提案されたアーキテクチャとトレーニングデザインの恩恵を受けます。 変化にも頑丈です
0.62
英語(論文から抽出)日本語訳スコア
4.3 Transferability Figure 10: Transferable IDF applied to detail transfer. 4.3 転送性 図10: 詳細転送に適用される転送可能なIDF。 0.64
We apply our method to detail transfer in order to validate the transferability of IDF. IDFの転送性を検証するため,本手法を詳細な転送に適用した。 0.73
Specifically, we want to transfer the displacements learned for a source shape to an aligned but different target shape. 具体的には、ソース形状の学習した変位を、アライメントするが異なるターゲット形状に転送したい。 0.75
In the first test scenario, the base shape is provided and lies closely to the ground truth detailed surface. 第1のテストシナリオでは、基本形状が提供され、基底真理詳細面に密着している。 0.74
In the second scenario, we are only provided with the detailed shapes and thus need to estimate the base and the displacements jointly. 第2のシナリオでは,詳細な形状のみを提供し,ベースと変位を共同で見積もる必要がある。 0.71
The pipeline consists of the following steps: 1) training N ωB by fitting the source shape (or the source base shape if provided), 2) training T ωD ,M and the query feature extractor φ jointly by fitting the source shape using (11) while keeping N ωB fixed, 3) training N ωB new by fitting the target shape (or the target base shape if provided), 4) evaluating (11) by replacing N ωB with N ωB new . パイプラインは、(1)ソース形状(または、提供された場合のソースベース形状)を適合させてNωBをトレーニングする、(2)NωBを固定したままソース形状を適合させ、(11)トレーニングTωD、Mとクエリ特徴抽出器φを併用する、3)ターゲット形状(または、提供された場合のターゲットベース形状)を適合させてNωBを新規にトレーニングする、(4)NωBをNωBをNωBに置き換えて評価する。
訳抜け防止モード: パイプラインは以下のステップからなる: 1 ) ソース形状(供給された場合のソースベース形状)を適合させてトレーニングN ωB。 2) トレーニングT ωD,Mおよびクエリ特徴抽出器φは、N ωBを固定しつつ、(11) を用いてソース形状を嵌合させることにより、共同で行う。 3) 目標形状(具備した場合は目標ベース形状)を適合させて新たにN ωBを訓練する。 4 ) を N ωB を N ωB に置換することにより (11 ) を評価する。
0.77
In our experiment, we subsample 3000 oriented points as the input to the feature extractor To prevent the base network from learning high-frequency details, we use ωB = 8 and 3 hidden layers with 96 channels each. 提案実験では,特徴抽出器の入力として3000方向の点をサブサンプリングし,ベースネットワークが高周波の詳細を学習しないように,それぞれ96チャネルのωB = 8と3の隠蔽層を用いる。 0.81
Note that fixing N ωB ensures that consistent ¯fx is fed to T ωD in the second training phase; in the opposite scenario where ¯fx varies during training, T ωD tends to ignore this input and consequently overfits to φ (x). N ωB の固定は、第2の訓練段階において、一貫した ffx が T ωD に供給されることを保証することに注意する; 反対のシナリオでは、T ωD はこの入力を無視し、したがって φ (x) に過度に適合する。 0.58
Example outputs for both scenarios are shown in Figure 10; the base shapes are provided for the shorts model. 両方のシナリオの例が図10に示されています。
訳抜け防止モード: 両方のシナリオの例を図10に示します。 基本形状はショートモデルに設定されている。
0.65
We use a 323 and a 1282 grid (for the frontal view), for the shorts and face model respectively in our modified OCN to extract the query features. クエリ機能を抽出するために,我々は323グリッドと1282グリッド(フロントビュー用)を修正したocnのショートパンツと顔モデルに使用する。 0.67
Our displacement fields, learned solely from the source shape, generate plausible details on the unseen target shape. 震源形状からのみ学習した変位場は,目に見える対象形状の正確な詳細を生成する。 0.75
The transferred details contain high-frequency signals (e g the eyebrows on the face), which is challenging for explicit representations. 転送された詳細には、明示的な表現に挑戦する高周波信号(例えば、顔のまばたきなど)が含まれている。 0.64
However, for the second scenario the performance degenerates slightly since the displacement field has to compensate errors stemming specifically from the base SDF. しかし、第2のシナリオでは、変位場がベースSDFから生じる誤差を補う必要があるため、性能はわずかに低下する。 0.70
Notably, scaling the base signed distance value before feeding it to T ωD is critical to avoid artifacts at the boundary (as shown on the Figure 9). 特に、t ωdに渡す前にベースサイン付き距離値のスケーリングは、境界でのアーティファクトを避けるために重要である(図9に示すように)。 0.72
Figure 9: Detail transfer without without scaling in (10). 図9: スケーリングなしでの詳細な転送(10)。 0.80
5 Conclusion and limitations In this paper, we proposed a new parameterization of neural implicit functions for detailed geometry representation. 5 結論と限界 本稿では,詳細な幾何表現のためのニューラル暗黙関数の新しいパラメータ化を提案する。 0.75
Extending displacement mapping, a classic shape modeling technique, our formulation represents a given shape by a smooth base surface and a high-frequency displacement field that offsets the base surface along its normal directions. 従来の形状モデリング手法である拡張変位マッピングは, 平滑なベース面と, ベース面を通常の方向に沿ってオフセットする高周波変位場による所定の形状を表す。 0.80
This resulting frequency partition enables the network to concentrate on regions with rich geometric details, significantly boosting its representational power. この周波数分割によって、ネットワークは幾何学的な詳細が豊富な領域に集中し、その表現力を大幅に向上させることができる。 0.48
Thanks to the theoretically grounded network design, the high-frequency signal is well constrained, and as a result our model shows convergence qualities compared to other models leveraging high-frequency signals, such as SIREN and positional encoding. 理論的な接地ネットワーク設計により、高周波信号は十分に制約され、その結果、サイレンや位置符号化といった高周波信号を利用する他のモデルと比較して収束品質を示す。 0.75
Furthermore, emulating the deformation-invarian t quality of classic displacement mapping, we extend our method to enable transferability of the implicit displacements, thus making it possible to use implicit representations for new geometric modeling tasks. さらに, 古典的変位マッピングの変形不変品質をエミュレートし, 暗黙的変位の伝達可能性を実現するため, 新たな幾何モデリングタスクに暗黙的表現を使用できるように拡張した。 0.81
A limitation of our detail transfer application is the necessity to pre-align the two shapes. 詳細転送アプリケーションの限界は、2つの形状を事前に定義する必要があることである。 0.61
In future work, we consider exploring sparse correspondences as part of the input, which is a common practice in computer graphics applications, to facilitate subsequent automatic shape alignment. 今後の研究では,コンピュータグラフィックスアプリケーションにおいて一般的な入力の一部としてスパース対応を探求し,その後の自動形状アライメントを容易にする。 0.76
9 sourcelearnedsourceb asetargetlearnedtarg etbaselearnedsourceb ase+displacementtargetba se+transferreddisplacem entsourcelearnedsour cebasetargetlearnedt argetbasetargetbase+transferreddisplacem entlearnedsourcebase +displacement 9 sourcelearnedsourceb ase targetlearnedtargetl earnedsourcebase+displacementtargetba se+transferreddisplacem entsourcetargetlearn edtargetbase+transferreddisplacem entlearnedsourcebase +displacement 0.44
英語(論文から抽出)日本語訳スコア
Acknowledgments and Disclosure of Funding 資金調達の承認と開示 0.77
This work is sponsored by Apple’s AI/ML PhD fellowship program. この研究は、AppleのAI/ML PhDフェローシッププログラムによって支援されている。 0.62
References [1] Sketchfab. 参照 [1] sketchfab。 0.72
https://sketchfab.co m, 2021. https://sketchfab.co m, 2021 0.81
[2] Stanford 3d scan repository. [2] Stanford 3d scan repository。 0.90
http://graphics.stan ford.edu/data/3Dscan rep/, 2021. http://graphics.stan ford.edu/data/3Dscan rep/, 2021。 0.45
[3] Marco Attene. マルコ・アテン(Marco Attene)。 0.53
A lightweight approach to repairing digitized polygon meshes. デジタル化ポリゴンメッシュ修復のための軽量アプローチ 0.70
The visual computer, 26 視覚コンピュータ(26) 0.69
(11):1393–1406, 2010. (11):1393–1406, 2010. 0.86
[4] Ronen Basri, Meirav Galun, Amnon Geifman, David Jacobs, Yoni Kasten, and Shira Kritchman. 4] Ronen Basri, Meirav Galun, Amnon Geifman, David Jacobs, Yoni Kasten, Shira Kritchman. 0.75
Frequency bias in neural networks for input of non-uniform density. 非均一密度入力のためのニューラルネットワークの周波数バイアス 0.84
In International Conference on Machine Learning, pages 685–694. 機械学習に関する国際会議、685-694頁。 0.78
PMLR, 2020. PMLR、2020年。 0.88
[5] Sema Berkiten, Maciej Halber, Justin Solomon, Chongyang Ma, Hao Li, and Szymon Rusinkiewicz. [5]Sema Berkiten, Maciej Halber, Justin Solomon, Chongyang Ma, Hao Li, Szymon Rusinkiewicz. 0.77
Learning detail transfer based on geometric features. 幾何学的特徴に基づく詳細伝達の学習 0.72
Computer Graphics Forum, 36(2):361–373, 2017. Computer Graphics Forum, 36(2):361–373, 2017 0.93
[6] Henning Biermann, Ioana Martin, Fausto Bernardini, and Denis Zorin. 6]ヘニング・ビアマン、イオアナ・マーティン、ファウスト・ベルナルディーニ、デニス・ゾリン 0.59
Cut-and-paste editing of multireso- マルチレゾのカット・アンド・ペースト編集- 0.45
lution surfaces. ACM Transactions on Graphics (TOG), 21(3):312–321, 2002. ルーション表面。 ACM Transactions on Graphics (TOG), 21(3):312–321, 2002 0.80
[7] Mario Botsch, Leif Kobbelt, Mark Pauly, Pierre Alliez, and Bruno Lévy. 7]マリオ・ボッチュ、レイフ・コベルト、マーク・ポーリー、ピエール・アリエズ、ブルーノ・レヴィ 0.59
Polygon mesh processing. ポリゴンメッシュ処理。 0.68
CRC press, 2010. CRC 2010年、出版。 0.77
[8] Rohan Chabra, Jan E Lenssen, Eddy Ilg, Tanner Schmidt, Julian Straub, Steven Lovegrove, and Richard Newcombe. Rohan Chabra氏、Jan E Lenssen氏、Eddy Ilg氏、Tanner Schmidt氏、Julian Straub氏、Steven Lovegrove氏、Richard Newcombe氏。 0.77
Deep local shapes: Learning local sdf priors for detailed 3d reconstruction. 深部局所形状: 詳細3次元再構成のための局所sdf事前学習。 0.74
In European Conference on Computer Vision, pages 608–625. European Conference on Computer Vision』、608-625頁。 0.85
Springer, Springer International Publishing, 2020. Springer, Springer International Publishing, 2020 (英語) 0.88
[9] Eric R Chan, Marco Monteiro, Petr Kellnhofer, Jiajun Wu, and Gordon Wetzstein. 9]Eric R Chan, Marco Monteiro, Petr Kellnhofer, Jiajun Wu, Gordon Wetzstein。 0.70
pi-gan: Periodic implicit pi-gan:周期的暗黙 0.65
generative adversarial networks for 3d-aware image synthesis. 3次元認識画像合成のための生成逆ネットワーク 0.71
arXiv preprint arXiv:2012.00926, 2020. arXiv preprint arXiv:2012.00926, 2020 0.81
[10] Xiaobai Chen, Tom Funkhouser, Dan B Goldman, and Eli Shechtman. 10]Xiaobai Chen、Tom Funkhouser、Dan B Goldman、Eli Shechtman。 0.63
Non-parametric texture transfer 非パラメトリックテクスチャ転送 0.75
using meshmatch. meshmatchを使用する。 0.69
Technical Report Technical Report 2012-2, 2012. 技術報告 2012年2月2日 0.46
[11] Yinbo Chen, Sifei Liu, and Xiaolong Wang. [11]yinbo Chen、Sifei Liu、Xiaolong Wang。 0.64
Learning continuous image representation with local implicit 局所暗黙による連続画像表現の学習 0.74
image function. arXiv preprint arXiv:2012.09161, 2020. 画像機能。 arXiv preprint arXiv:2012.09161, 2020 0.77
[12] Zhiqin Chen and Hao Zhang. [12]Zhiqin ChenとHao Zhang。 0.76
Learning implicit fields for generative shape modeling. 生成形状モデリングのための暗黙フィールドの学習 0.80
In Proceedings of in Proceedings of ~ 0.79
the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 5939–5948, 2019. IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 5939–5948, 2019 0.91
[13] Zhiqin Chen, Andrea Tagliasacchi, and Hao Zhang. [13]Zhiqin Chen、Andrea Tagliasacchi、Hao Zhang。 0.70
Bsp-net: Generating compact meshes via binary space partitioning. Bsp-net: バイナリ空間分割によるコンパクトメッシュの生成。 0.70
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 45–54, 2020. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 45–54, 2020。 0.92
[14] Zhiqin Chen, Vladimir Kim, Matthew Fisher, Noam Aigerman, Hao Zhang, and Siddhartha Chaudhuri. 14]Zhiqin Chen, Vladimir Kim, Matthew Fisher, Noam Aigerman, Hao Zhang, Siddhartha Chaudhuri。 0.70
DecorGAN: 3d shape detailization by conditional refinement. DecorGAN: 条件付き精細化による3次元形状詳細化。 0.63
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021. IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021に参加して 0.84
[15] Robert L Cook. 15] ロバート・l・クック 0.64
Shade trees. In Proceedings of the 11th annual conference on Computer graphics and 日陰の木 第11回コンピュータグラフィックス年次大会に参加して 0.58
interactive techniques, pages 223–231, 1984. インタラクティブなテクニック, 223–231, 1984。 0.75
[16] Robert L Cook, Loren Carpenter, and Edwin Catmull. [16]ロバート・l・クック、ローレン・カーペンター、エドウィン・キャットミュル 0.67
The reyes image rendering architecture. reyesイメージレンダリングアーキテクチャ。 0.56
ACM SIGGRAPH Computer Graphics, 21(4):95–102, 1987. ACM SIGGRAPH Computer Graphics, 21(4):95–102, 1987。 0.89
[17] Boyang Deng, John P Lewis, Timothy Jeruzalski, Gerard Pons-Moll, Geoffrey Hinton, Mohammad Norouzi, and Andrea Tagliasacchi. Boyang Deng氏、John P Lewis氏、Timothy Jeruzalski氏、Gerard Pons-Moll氏、Geoffrey Hinton氏、Mohammad Norouzi氏、Andrea Tagliasacchi氏。 0.73
Nasa: neural articulated shape approximation. nasa: ニューラルネットワークによる形状近似。 0.70
arXiv preprint arXiv:1912.03207, 2019. arXiv preprint arXiv:1912.03207, 2019 0.81
[18] Boyang Deng, Kyle Genova, Soroosh Yazdani, Sofien Bouaziz, Geoffrey Hinton, and Andrea Tagliasacchi. [18]Booang Deng、Kyle Genova、Soloosh Yazdani、Sofien Bouaziz、Geoffrey Hinton、Andrea Tagliasacchi。 0.69
Cvxnet: Learnable convex decomposition. Cvxnet: 学習可能な凸分解。 0.72
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 31–44, 2020. The Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 31–44, 2020。 0.90
[19] Vincent Dumoulin, Ethan Perez, Nathan Schucher, Florian Strub, Harm de Vries, Aaron Courville, and [19]Vincent Dumoulin,Ethan Perez,Nathan Schucher,Florian Strub,Harm de Vries,Aaron Courville,そして 0.79
Yoshua Bengio. Feature-wise transformations. ヨシュア・ベンジオ 特徴的変換。 0.59
Distill, 3(7):e11, 2018. 蒸留, 3(7):e11, 2018。 0.67
10 10 0.85
英語(論文から抽出)日本語訳スコア
[20] Sarah F Frisken, Ronald N Perry, Alyn P Rockwood, and Thouis R Jones. 20]Sarah F Frisken、Ronald N Perry、Alyn P Rockwood、Thouis R Jones。 0.61
Adaptively sampled distance In Proceedings of the 27th annual 第27回年次大会における適応的サンプル距離 0.72
fields: A general representation of shape for computer graphics. フィールド: コンピュータグラフィックスのための形状の一般的な表現。 0.83
conference on Computer graphics and interactive techniques, pages 249–254, 2000. コンピュータグラフィックスとインタラクティブ技術に関する会議、2000年249-254頁。 0.83
[21] Kyle Genova, Forrester Cole, Daniel Vlasic, Aaron Sarna, William T Freeman, and Thomas Funkhouser. Kyle Genova氏、Forrester Cole氏、Daniel Vlasic氏、Aaron Sarna氏、William T Freeman氏、Thomas Funkhouser氏。 0.73
Learning shape templates with structured implicit functions. 構造付き暗黙関数による形状テンプレートの学習。 0.74
In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 7154–7164, 2019. In Proceedings of the IEEE/CVF International Conference on Computer Vision, page 7154–7164, 2019。 0.91
[22] Kyle Genova, Forrester Cole, Avneesh Sud, Aaron Sarna, and Thomas Funkhouser. Kyle Genova氏、Forrester Cole氏、Avneesh Sud氏、Aaron Sarna氏、Thomas Funkhouser氏。 0.67
Local deep implicit functions for 3d shape. 3次元形状の局所深い暗黙関数。 0.66
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4857–4866, 2020. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 4857–4866, 2020。 0.92
[23] Zekun Hao, Hadar Averbuch-Elor, Noah Snavely, and Serge Belongie. [23]Zekun Hao、Hadar Averbuch-Elor、Noah Snavely、Serge Belongie。 0.66
Dualsdf: Semantic shape manipulation using a two-level representation. Dualsdf: 2レベル表現を用いた意味的形状操作。 0.75
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 7631–7641, 2020. The Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 7631–7641, 2020。 0.91
[24] Amir Hertz, Rana Hanocka, Raja Giryes, and Daniel Cohen-Or. Amir Hertz氏、Rana Hanocka氏、Raja Giryes氏、Daniel Cohen-Or氏。 0.69
Deep geometric texture synthesis. 深い幾何学的テクスチャの合成。 0.64
ACM ISSN 0730-0301. doi: 10.1145/3386569.3392 471. ACM ISSN 0730-0301. doi: 10.1145/3386569.3392 471 0.55
URL https: URL https: 0.85
Trans. Graph., 39(4), July 2020. トランス。 図, 39(4), 2020年7月。 0.72
//doi.org/10.1145/33 86569.3392471. //doi.org/10.1145/33 86569.3392471 0.24
[25] Amir Hertz, Or Perel, Raja Giryes, Olga Sorkine-Hornung, and Daniel Cohen-Or. Amir Hertz氏、Or Perel氏、Raja Giryes氏、Olga Sorkine-Hornung氏、Daniel Cohen-Or氏。 0.72
Progressive encoding プログレッシブエンコーディング 0.66
for neural optimization. arXiv preprint arXiv:2104.09125, 2021. 神経の最適化です arXiv preprint arXiv:2104.09125, 2021 0.77
[26] Chiyu Jiang, Avneesh Sud, Ameesh Makadia, Jingwei Huang, Matthias Nießner, Thomas Funkhouser, et al Local implicit grid representations for 3d scenes. [26]Chiyu Jiang, Avneesh Sud, Ameesh Makadia, Jingwei Huang, Matthias Nießner, Thomas Funkhouser, et al Local implicit grid representations for 3d scenes。 0.84
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 6001–6010, 2020. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 6001–6010, 2020。 0.93
[27] Manyi Li and Hao Zhang. 27] メニ・リーと ホー・ザング 0.41
D2im-net: Learning detail disentangled implicit fields from single images. D2im-net: 単一のイメージから暗黙のフィールドを切り離した詳細を学習する。 0.52
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021. 院 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021に参加して 0.67
[28] Lingjie Liu, Jiatao Gu, Kyaw Zaw Lin, Tat-Seng Chua, and Christian Theobalt. [28]Lingjie Liu, Jiatao Gu, Kyaw Zaw Lin, Tat-Seng Chua,Christian Theobalt。 0.77
Neural sparse voxel fields. 神経スパースボクセルフィールド。 0.50
In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, pages 15651–15663. H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, page 15651–15663。 0.97
Curran Associates, Inc., 2020. Curran Associates, Inc., 2020 0.71
URL https://proceedings. neurips.cc/paper/202 0/file/ b4b758962f17808746e9 bb832a6fa4b8-Paper.p df. URL https://proceedings. neurips.cc/paper/202 0/file/ b4b758962f17808746e9 bb832a6fa4b8-Paper.p df 0.21
[29] Ilya Loshchilov and Frank Hutter. Ilya Loshchilov氏とFrank Hutter氏。 0.58
Sgdr: Stochastic gradient descent with warm restarts. Sgdr: 温かい再起動を伴う確率勾配降下。 0.66
arXiv preprint arXiv プレプリント 0.83
arXiv:1608.03983, 2016. arXiv:1608.03983, 2016 0.71
[30] Lars Mescheder, Michael Oechsle, Michael Niemeyer, Sebastian Nowozin, and Andreas Geiger. Lars Mescheder氏、Michael Oechsle氏、Michael Niemeyer氏、Sebastian Nowozin氏、Andreas Geiger氏。 0.71
Occupancy networks: Learning 3d reconstruction in function space. 作業ネットワーク:機能空間における3次元再構成学習。 0.77
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4460–4470, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 4460–4470, 2019。 0.93
[31] Ben Mildenhall, Pratul P Srinivasan, Matthew Tancik, Jonathan T Barron, Ravi Ramamoorthi, and Ren Ng. Ben Mildenhall氏、Pratul P Srinivasan氏、Matthew Tancik氏、Jonathan T Barron氏、Ravi Ramamoorthi氏、Ren Ng氏。 0.70
Nerf: Representing scenes as neural radiance fields for view synthesis. nerf: シーンを、ビュー合成のためのニューラルラミアンスフィールドとして表現する。 0.65
In European Conference on Computer Vision, pages 405–421. 欧州コンピュータビジョン会議』405-421頁。 0.68
Springer, Springer International Publishing, 2020. Springer, Springer International Publishing, 2020 (英語) 0.88
[32] Michael Niemeyer, Lars Mescheder, Michael Oechsle, and Andreas Geiger. Michael Niemeyer氏、Lars Mescheder氏、Michael Oechsle氏、Andreas Geiger氏。 0.66
Differentiable volumetric rendering: Learning implicit 3d representations without 3d supervision. 異なるボリュームレンダリング: 3dの監督なしに暗黙の3D表現を学ぶ。 0.60
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 3504–3515, 2020. The Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 3504–3515, 2020 0.93
[33] Yutaka Ohtake, Alexander Belyaev, Marc Alexa, Greg Turk, and Hans-Peter Seidel. [33]大竹勇、アレクサンドル・ベリャーエフ、Marc Alexa、Greg Turk、Hans-Peter Seidel。 0.74
Multi-level partition of unity implicits. 単位の暗黙のマルチレベルパーティション。 0.65
ACM Trans. Graph., 22(3):463–470, 2003. ACMトランス。 Graph., 22(3):463–470, 2003 0.83
ISSN 0730-0301. doi: 10.1145/882262.88229 3. ISSN0730-0301. doi: 10.1145/882262.88229 3 0.49
URL https://doi.org/10.1 145/882262.882293. URL https://doi.org/10.1 145/882262.882293 0.41
[34] Jeong Joon Park, Peter Florence, Julian Straub, Richard Newcombe, and Steven Lovegrove. Jeong Joon Park、Peter Florence、Julian Straub、Richard Newcombe、Steven Lovegrove。 0.59
Deepsdf: Learning continuous signed distance functions for shape representation. Deepsdf: 形状表現のための連続符号付き距離関数の学習。 0.76
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 165–174, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 165–174, 2019。 0.92
[35] Keunhong Park, Utkarsh Sinha, Jonathan T. Barron, Sofien Bouaziz, Dan B Goldman, Steven M. Seitz, and Ricardo Martin-Brualla. Keunhong Park, Utkarsh Sinha, Jonathan T. Barron, Sofien Bouaziz, Dan B Goldman, Steven M. Seitz, Ricardo Martin-Brualla。 0.79
Deformable neural radiance fields. 変形可能な神経放射場。 0.59
arXiv preprint arXiv:2011.12948, 2020. arXiv preprint arXiv:2011.12948, 2020 0.81
[36] Songyou Peng, Michael Niemeyer, Lars Mescheder, Marc Pollefeys, and Andreas Geiger. [36]Songyo Peng、Michael Niemeyer、Lars Mescheder、Marc Pollefeys、Andreas Geiger。 0.67
Convolutional occupancy networks. 畳み込み型占有ネットワーク。 0.64
In European Conference on Computer Vision (ECCV), Cham, August 2020. 欧州コンピュータビジョン会議(ECCV、European Conference on Computer Vision)は、2020年8月。 0.75
Springer International Publishing. Springer International Publishing(英語) 0.71
[37] Ethan Perez, Florian Strub, Harm De Vries, Vincent Dumoulin, and Aaron Courville. Ethan Perez氏、Florian Strub氏、Harm De Vries氏、Vincent Dumoulin氏、Aaron Courville氏。 0.72
Film: Visual reasoning with a general conditioning layer. フィルム:一般的なコンディショニング層による視覚的推論。 0.74
In Proceedings of the AAAI Conference on Artificial Intelligence, 2018. AAAI Conference on Artificial Intelligence, 2018に参加して 0.71
11 11 0.85
英語(論文から抽出)日本語訳スコア
[38] Albert Pumarola, Enric Corona, Gerard Pons-Moll, and Francesc Moreno-Noguer. Albert Pumarola, Enric Corona, Gerard Pons-Moll, Francesc Moreno-Noguer. 0.77
D-nerf: Neural radiance d-nerf:neural radiance 0.78
fields for dynamic scenes. ダイナミックシーンのためのフィールド。 0.69
arXiv preprint arXiv:2011.13961, 2020. arXiv preprint arXiv:2011.13961, 2020 0.81
[39] Charles R Qi, Hao Su, Kaichun Mo, and Leonidas J Guibas. [39]Charles R Qi、Hao Su、Kachun Mo、Leonidas J Guibas。 0.65
Pointnet: Deep learning on point sets for 3d classification and segmentation. pointnet: 3d分類とセグメンテーションのためのポイントセットのディープラーニング。 0.83
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 652–660, 2017. Proceedings of the IEEE conference on computer vision and pattern recognition, 652-660, 2017
訳抜け防止モード: In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 652-660頁、2017年。
0.84
[40] Charles R Qi, Li Yi, Hao Su, and Leonidas J Guibas. [40]Charles R Qi、Li Yi、Hao Su、Leonidas J Guibas。 0.67
Pointnet++: Deep hierarchical feature learning on Pointnet++: 階層的な機能学習 0.79
point sets in a metric space. 距離空間内の点集合。 0.58
arXiv preprint arXiv:1706.02413, 2017. arXiv preprint arXiv:1706.02413, 2017 0.79
[41] Nasim Rahaman, Aristide Baratin, Devansh Arpit, Felix Draxler, Min Lin, Fred Hamprecht, Yoshua Bengio, and Aaron Courville. Nasim Rahaman, Aristide Baratin, Devansh Arpit, Felix Draxler, Min Lin, Fred Hamprecht, Yoshua Bengio, Aaron Courville.
訳抜け防止モード: [41 ]Nasim Rahaman, Aristide Baratin, Devansh Arpit, Felix Draxler, Min Lin, Fred Hamprecht, Yoshua Bengio アーロン・クールヴィル(Aaron Courville)。
0.83
On the spectral bias of neural networks. ニューラルネットワークのスペクトルバイアスについて 0.58
In International Conference on Machine Learning, pages 5301–5310. 機械学習に関する国際会議 5301-5310頁。 0.73
PMLR, 2019. 2019年、PMLR。 0.72
[42] Shunsuke Saito, Zeng Huang, Ryota Natsume, Shigeo Morishima, Angjoo Kanazawa, and Hao Li. 【42】斎藤俊助、Zeng Huang、Lyota Natsume、森島重雄、金沢安城、羽織 0.47
Pifu: Pixel-aligned implicit function for high-resolution clothed human digitization. Pifu: 高精細な人間のデジタル化のための暗黙の関数。 0.53
In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 2304–2314, 2019. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 2304–2314, 2019。 0.92
[43] Shunsuke Saito, Tomas Simon, Jason Saragih, and Hanbyul Joo. [43]斎藤俊介、Tomas Simon、Jason Saragih、Hanbyul Joo。 0.60
Pifuhd: Multi-level pixel-aligned implicit function for high-resolution 3d human digitization. pifuhd: 高解像度3dデジタル化のためのマルチレベルピクセルアライン暗黙関数。 0.68
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 84–93, 2020. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 84–93, 2020。 0.92
[44] Vincent Sitzmann, Michael Zollhöfer, and Gordon Wetzstein. 44] Vincent Sitzmann、Michael Zollhöfer、Gordon Wetzstein。 0.62
Scene representation networks: Continuous シーン表現ネットワーク:連続的 0.86
3d-structure-aware neural scene representations. 3d構造対応ニューラルシーン表現 0.68
arXiv preprint arXiv:1906.01618, 2019. arXiv preprint arXiv:1906.01618, 2019 0.81
[45] Vincent Sitzmann, Julien Martel, Alexander Bergman, David Lindell, and Gordon Wetzstein. ヴィンセント・シッツマン、ジュリアン・マーテル、アレクサンダー・バーグマン、デイヴィッド・リンデル、ゴードン・ウェッツスタイン。 0.47
Implicit neural representations with periodic activation functions. 周期的活性化機能を持つ神経表現。 0.73
In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, pages 7462–7473. H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, page 7462–7473。 0.97
Curran Associates, Inc., 2020. Curran Associates, Inc., 2020 0.71
URL https://proceedings. neurips.cc/paper/202 0/ file/53c04118df112c1 3a8c34b38343b9c10-Pa per.pdf. URL https://proceedings. neurips.cc/paper/202 0/ file/53c04118df112c1 3a8c34b38343b9c10-Pa per.pdf 0.21
[46] Ivan Skorokhodov, Savva Ignatyev, and Mohamed Elhoseiny. 46]Ivan Skorokhodov, Savva Ignatyev, Mohamed Elhoseiny。 0.59
Adversarial generation of continuous images. arXiv preprint arXiv:2011.12026, 2020. 連続画像の逆生成。 arXiv preprint arXiv:2011.12026, 2020 0.70
[47] Olga Sorkine and Mario Botsch. 47] オルガ・ソルキンとマリオ・ボッチュ 0.52
Tutorial: Interactive shape modeling and deformation. Tutorial: インタラクティブな形状モデリングと変形。 0.77
In EUROGRAPH- ICS, 2009. EUROGRAPH 2009年、ICS。 0.66
[48] Olga Sorkine, Daniel Cohen-Or, Yaron Lipman, Marc Alexa, Christian Rössl, and H-P Seidel. Olga Sorkine氏、Daniel Cohen-Or氏、Yaron Lipman氏、Marc Alexa氏、Christian Rössl氏、H-P Seidel氏。 0.77
Laplacian surface editing. ラプラシアン表面編集。 0.74
In Proceedings of the 2004 Eurographics/ACM SIGGRAPH symposium on Geometry processing, pages 175–184, 2004. 2004年のEurographics/ACM SIGGRAPH symposium on Geometry processing, page 175–184, 2004。 0.88
[49] Kenshi Takayama, Ryan Schmidt, Karan Singh, Takeo Igarashi, Tamy Boubekeur, and Olga Sorkine. [49]高山健史、Ryan Schmidt、Karan Singh、Igarashi武雄、Tamy Boubekeur、Olga Sorkine。 0.57
Geobrush: Interactive mesh geometry cloning. Geobrush: インタラクティブなメッシュジオメトリクローン。 0.81
Computer Graphics Forum, 30(2):613–622, 2011. Computer Graphics Forum, 30(2):613–622, 2011 0.89
[50] Towaki Takikawa, Joey Litalien, Kangxue Yin, Karsten Kreis, Charles Loop, Derek Nowrouzezahrai, Alec Jacobson, Morgan McGuire, and Sanja Fidler. [50]滝川常樹氏、Joey Litalien氏、Kangxue Yin氏、Karsten Kreis氏、Charles Loop氏、Derek Nowrouzahrai氏、Alec Jacobson氏、Morgan McGuire氏、Sanja Fidler氏。 0.67
Neural geometric level of detail: Real-time rendering with implicit 3D shapes. neural geometry level of detail: 暗黙の3d形状によるリアルタイムレンダリング。 0.74
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021. IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021に参加して 0.84
[51] Matthew Tancik, Pratul Srinivasan, Ben Mildenhall, Sara Fridovich-Keil, Nithin Raghavan, Utkarsh Singhal, Ravi Ramamoorthi, Jonathan Barron, and Ren Ng. Matthew Tancik氏、Pratul Srinivasan氏、Ben Mildenhall氏、Sara Fridovich-Keil氏、Nithin Raghavan氏、Utkarsh Singhal氏、Ravi Ramamoorthi氏、Jonathan Barron氏、Ren Ng氏。 0.75
Fourier features let networks learn high frequency functions in low dimensional domains. フーリエ特徴により、ネットワークは低次元領域で高周波関数を学習できる。 0.74
In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, pages 7537–7547. H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, volume 33, pages 7537-7547. ^ 0.92
Curran Associates, Inc., 2020. Curran Associates, Inc., 2020 0.71
URL https://proceedings. neurips.cc/paper/202 0/ file/550536832689576 97aa39fba6f231c68-Pa per.pdf. URL https://proceedings. neurips.cc/paper/202 0/ file/550536832689576 97aa39f6f231c68-Pape r.pdf 0.26
[52] Edgar Tretschk, Ayush Tewari, Vladislav Golyanik, Michael Zollhöfer, Carsten Stoll, and Christian Theobalt. 52]Edgar Tretschk, Ayush Tewari, Vladislav Golyanik, Michael Zollhöfer, Carsten Stoll, Christian Theobalt。 0.70
Patchnets: Patch-based generalizable deep implicit 3d shape representations. patchnets: パッチベースの一般化可能な深い暗黙の3d形状表現。 0.57
In European Conference on Computer Vision, pages 293–309. 欧州コンピュータビジョン会議』293-309頁。 0.69
Springer, Springer International Publishing, 2020. Springer, Springer International Publishing, 2020 (英語) 0.88
[53] Haotian Yang, Hao Zhu, Yanru Wang, Mingkai Huang, Qiu Shen, Ruigang Yang, and Xun Cao. [53]ホーシャン・ヤン、ホー・チュー、ヤン・ウォン、明海・フン、清・シェン、ルーガン・ヤン、クン・カオ。 0.57
Facescape: a large-scale high quality 3d face dataset and detailed riggable 3d face prediction. Facescape: 大規模な高品質の3d顔データセットと詳細な3d顔予測。 0.78
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2020. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2020 0.72
[54] Lior Yariv, Yoni Kasten, Dror Moran, Meirav Galun, Matan Atzmon, Basri Ronen, and Yaron Lipman. Lior Yariv, Yoni Kasten, Dror Moran, Meirav Galun, Matan Atzmon, Basri Ronen, Yaron Lipman。
訳抜け防止モード: [54 ]Lior Yariv, Yoni Kasten, Dror Moran, Meirav Galun、Matan Atzmon、Basri Ronen、Yaron Lipman。
0.69
Multiview neural surface reconstruction by disentangling geometry and appearance. 絡み合う形状と外観による多視点ニューラルサーフェス再構成 0.77
Advances in Neural Information Processing Systems, 33, 2020. ニューラル情報処理システムの進歩 -2020年3月33日- 0.73
12 12 0.85
英語(論文から抽出)日本語訳スコア
[55] Wang Yifan, Noam Aigerman, Vladimir G Kim, Siddhartha Chaudhuri, and Olga Sorkine-Hornung. [55]Wang Yifan, Noam Aigerman, Vladimir G Kim, Siddhartha Chaudhuri, Olga Sorkine-Hornung。 0.75
Neural cages for detail-preserving 3d deformations. 詳細保存3次元変形のためのニューラルケージ 0.66
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 75–83, 2020. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 75–83, 2020。 0.92
[56] Lexing Ying, Aaron Hertzmann, Henning Biermann, and Denis Zorin. 56] Lexing Ying, Aaron Hertzmann, Henning Biermann, Denis Zorin。 0.70
Texture and shape synthesis on テクスチャと形状合成 0.62
surfaces. In Eurographics Workshop on Rendering Techniques, pages 301–312. 表面 Eurographics Workshop on Rendering Techniques, page 301–312. 0.69
Springer, 2001. 2001年、スプリンガー。 0.62
[57] Howard Zhou, Jie Sun, Greg Turk, and James M Rehg. 57]Howard Zhou氏、Jie Sun氏、Greg Turk氏、James M Rehg氏。 0.74
Terrain synthesis from digital elevation models. デジタル標高モデルからの地層合成 0.69
IEEE transactions on visualization and computer graphics, 13(4):834–848, 2007. IEEEによる可視化とコンピュータグラフィックスのトランザクション 13(4):834–848, 2007 0.84
[58] Kun Zhou, Xin Huang, Xi Wang, Yiying Tong, Mathieu Desbrun, Baining Guo, and Heung-Yeung Shum. [58]クン・ジュ、シン・フン、ウイ・ウォン、ヨン・トン、マチュー・デスブルン、バイニング・グオ、ヒョン・ユン・シュム。
訳抜け防止モード: [58]金周、新黄、新王、 Yiying Tong, Mathieu Desbrun, Baining Guo, and Heung - Yeung Shum
0.63
Mesh quilting for geometric texture synthesis. 幾何学的テクスチャ合成のためのメッシュキルト 0.67
In ACM SIGGRAPH 2006 Papers, pages 690–697. ACM SIGGRAPH 2006 Papers』 690-697頁。 0.75
2006. A Proof Theorem 1. 2006. A Proof Theorem 1。 0.83
If function f : Rn → R is differentiable, Lipschitz-continuous with constant L and Lipschitz-smooth with constant M, then (cid:107)∇f (x + δ ∇f (x)) − ∇f (x)(cid:107) ≤ |δ|LM. 函数 f : rn → r が微分可能であれば、定数 l のリプシッツ連続、定数 m のリプシッツ-スムース (cid:107) は (x + δ sf (x)) − sf (x)(cid:107) ≤ |δ|lm である。 0.72
Proof. If a differentiable function f is Lipschitz-continuous with constant L and Lipschitz-smooth with constant M, then 証明。 微分可能関数 f が定数 L のリプシッツ連続かつ定数 M のリプシッツ滑らかであれば、 0.64
(cid:107)∇f (x)(cid:107) ≤ L (cid:107) =f (x)(cid:107) ≤ L 0.83
(cid:107)∇f (x) − ∇f (y)(cid:107) ≤ M(cid:107)x − y(cid:107). (cid:107)\f (x) − sf (y)(cid:107) ≤ m(cid:107)x − y(cid:107)。 0.84
(12) (13) (cid:107)∇f (x + δ ∇f (x)) − ∇f (x)(cid:107) ≤ M(cid:107)δ ∇f (x)(cid:107) (12) (13) (cid:107)>f (x + δ >f (x)) − >f (x)(cid:107) ≤ M(cid:107)δ >f (x)(cid:107) 0.84
≤ |δ|LM by (13) by (12) ≤ |δ|LM by (13) by (12) 0.72
(cid:12)(cid:12)(cid :12)(cid:107)∇f(cid:107) − 1 (cid:12)(cid:12)(cid :107)(f(cid:107) − 1) 0.78
(1 + )|δ|M. Corollary 1. (1+)|δ|M。 第1話。 0.61
If a signed distance function f satisfying the eikonal equation up to error  > 0, 符号付き距離関数 f が偶数方程式を満たすとき、誤差 > > 0 となる。 0.83
(cid:12)(cid:12)(cid :12) < , is Lipschitz-smooth with constant M, then (cid:107)∇f (x + δ ∇f (x)) − ∇f (x)(cid:107) < (cid:12)(cid:12)(cid :12) <  ⇔ (cid:107)∇f(cid:107) <  + 1. (cid:12)(cid:12)(cid :12) < s, is Lipschitz-smooth with constant M, then (cid:107) (f (x + δ )f (x)) − sf (x)(cid:107) < (cid:12)(cid:12)(cid :12) < sf(cid:107) < sf(cid:107) < s + 1。 0.80
This means f is Lipschitz-continuous with constant (cid:12)(cid:12)(cid :12)(cid:107)∇f(cid:107) − 1 これは f が定数 (cid:12)(cid:12)(cid :107) を持つリプシッツ連続であることを意味する。 0.69
Proof.  + 1. 証明。  + 1. 0.73
Then by Theorem 1, (cid:107)∇f (x + δ∇f (x)) − ∇f (x)(cid:107) < |δ|(1 + )M. 次に、 Theorem 1 (cid:107) =f (x + δ\f (x)) − sf (x)(cid:107) < |δ|(1 + s)M で表される。 0.80
B Multi-target detail transfer Once trained, φ and T ωD can be deployed to a new base surface without any fine-tuning or adaptation. b 多目的詳細転送 一度訓練すると、 φ と t ωd は微調整や適応なしに新しい基底面に展開できる。 0.70
In other words, given a target shape, we only need to fit a new base network N ωB new , then compute the inverse displacement ˆd and the composed SDF ˆf (x) simply by replacing replacing N ωB with N ωB new . 言い換えると、対象の形状が与えられたとき、新しいベースネットワーク n ωb new を満たさなければならなくなり、n ωb を n ωb new に置き換えるだけで、逆変位 sd と構成 sdf (x) を計算することができる。 0.77
We show the result of this process in Figure 11. このプロセスの結果を図11に示します。 0.74
It is worth mentioning that even though the point extractor is trained on a single source shape, it is able to generalize across different identities thanks to the built-in scale and translation invariance. 点抽出器は単一のソース形状で訓練されているが、内蔵スケールと翻訳不変性のおかげで、異なるアイデンティティをまたいだ一般化が可能であることに注意する必要がある。 0.65
C Detail representation We provide visual comparison for the tested models and methods in Figure 12. C 詳細表現 テストされたモデルとメソッドを図12で視覚的に比較する。 0.77
13 13 0.85
英語(論文から抽出)日本語訳スコア
Figure 11: Detail transfer to multiple similarly aligned target shapes. 図11: 類似した複数のターゲット形状への詳細転送。 0.84
Given a (detailed) source shape, we train a base network N ωB to represent the smooth base surface (see learned source base), as well as a feature extractor φ and a transferrable displacement network T ωD to represent the surface details. ソース形状が(詳細)与えられた場合、ベースネットワーク N ωB をスムーズなベース表面を表すように訓練し(学習したソースベースを参照)、特徴抽出器 φ と変換可能な変位ネットワーク T ωD を表面詳細を表すように訓練する。 0.81
During detail transfer, we only need to fit the lightweight base network for each new target, while the feature extractor and displacement net can be applied to the new shapes without adaptation. 細部移動の際には,新しいターゲット毎に軽量なベースネットワークを適合させる必要があるが,特徴抽出器と変位ネットは適応せずに新しい形状に適用できる。 0.85
14 sourcelearnedsourceb aselearnedsourcelear nedtargetbasetargets withdetailfromthesou rcetargets 14 sourcelearnedsourceb aselearnedsourcelear nedtargettargetswith detailfromthesourcet argets 0.44
英語(論文から抽出)日本語訳スコア
Figure 12: Comparison of detail reconstruction (better viewed with zoom-in). 図12:詳細再構築の比較(ズームインで見る)。 0.74
Methods that did not converge are omitted in the visual comparison. 収束しないメソッドは視覚的比較では省略される。 0.79
15 FFNsiren-3ω=60siren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60siren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60siren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4 15 FFNsiren-3ω=60NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4 0.45
英語(論文から抽出)日本語訳スコア
Figure 12: ((Continued) Comparison of detail reconstruction (better viewed with zoom-in) 図12:(継続)詳細再構成の比較(ズームインで見る) 0.75
16 FFNsiren-3ω=60siren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60siren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60siren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4 16 FFNsiren-3ω=60NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4 0.45
英語(論文から抽出)日本語訳スコア
Figure 12: ((Continued) Comparison of detail reconstruction (better viewed with zoom-in) 図12:(継続)詳細再構成の比較(ズームインで見る) 0.75
17 FFNsiren-3ω=60siren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60siren-7ω=30NGLODLOD6oursgroun dtruthNGLODLOD4 17 FFNsiren-3ω=60ngLODLOD=30NGLODLOD6oursgroun dtruthNGLODLOD4FFNsi ren-3ω=60ngLODLOD=30NGLODLOD6oursgroun dtruthNGLODLOD4 0.46
                                   ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。