論文の概要: Deep Mesh Prior: Unsupervised Mesh Restoration using Graph Convolutional
Networks
- arxiv url: http://arxiv.org/abs/2107.02909v1
- Date: Fri, 2 Jul 2021 07:21:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-11 11:36:22.275342
- Title: Deep Mesh Prior: Unsupervised Mesh Restoration using Graph Convolutional
Networks
- Title(参考訳): Deep Mesh Prior: グラフ畳み込みネットワークを用いた教師なしメッシュ復元
- Authors: Shota Hattori, Tatsuya Yatagawa, Yutaka Ohtake, Hiromasa Suzuki
- Abstract要約: 本稿では,メッシュ上のグラフ畳み込みネットワークを提案し,自己相似性を学習する。
ネットワークは入力データとして1つの不完全なメッシュを取り、再構成されたメッシュを直接出力する。
我々の教師なし手法は大規模データセットを用いた最先端手法と同等かそれ以上に機能することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses mesh restoration problems, i.e., denoising and
completion, by learning self-similarity in an unsupervised manner. For this
purpose, the proposed method, which we refer to as Deep Mesh Prior, uses a
graph convolutional network on meshes to learn the self-similarity. The network
takes a single incomplete mesh as input data and directly outputs the
reconstructed mesh without being trained using large-scale datasets. Our method
does not use any intermediate representations such as an implicit field because
the whole process works on a mesh. We demonstrate that our unsupervised method
performs equally well or even better than the state-of-the-art methods using
large-scale datasets.
- Abstract(参考訳): 本稿では,教師なしの方法で自己相似性を学習することで,メッシュ復元問題,すなわち分節化と完了に対処する。
そこで,本提案手法では,メッシュ上のグラフ畳み込みネットワークを用いて自己相似性を学習する。
ネットワークは入力データとして単一の不完全なメッシュを取り、大規模なデータセットを使用してトレーニングされることなく、再構築されたメッシュを直接出力する。
本手法では,プロセス全体がメッシュで動作するため,暗黙のフィールドなどの中間表現は使用しない。
我々の教師なし手法は大規模データセットを用いた最先端手法と同等かそれ以上に機能することを示した。
関連論文リスト
- WrappingNet: Mesh Autoencoder via Deep Sphere Deformation [10.934595072086324]
WrappingNetは、異種オブジェクト上の一般メッシュ教師なし学習を可能にする最初のメッシュオートエンコーダである。
メッシュ接続性を表現するためのボトルネックとして,新たなベースグラフが導入されている。
オブジェクト形状を表す共有潜在空間の学習を容易にすることが示されている。
論文 参考訳(メタデータ) (2023-08-29T16:13:04Z) - Learning Self-Prior for Mesh Inpainting Using Self-Supervised Graph Convolutional Networks [4.424836140281846]
入力として不完全なメッシュのみを必要とする自己優先型のメッシュインペイントフレームワークを提案する。
本手法は塗装工程を通して多角形メッシュフォーマットを維持している。
提案手法は従来のデータセットに依存しない手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-01T02:51:38Z) - NeuralMeshing: Differentiable Meshing of Implicit Neural Representations [63.18340058854517]
ニューラルな暗黙表現から表面メッシュを抽出する新しい微分可能なメッシュアルゴリズムを提案する。
本手法は,通常のテッセルレーションパターンと,既存の手法に比べて三角形面の少ないメッシュを生成する。
論文 参考訳(メタデータ) (2022-10-05T16:52:25Z) - Mesh Draping: Parametrization-Free Neural Mesh Transfer [92.55503085245304]
Mesh Drapingは、既存のメッシュ構造をある形状から別の形状に転送するニューラルネットワークである。
我々は、徐々に増加する周波数を活用して、ニューラルネットワークの最適化を導くことにより、安定かつ高品質なメッシュ転送を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-11T17:24:52Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - EPINE: Enhanced Proximity Information Network Embedding [2.257737378757467]
本研究では,隣接行列における貴重な情報をより深く掘り下げることに尽力した。
同じ目的のもと、多くのNE法は隣接行列のパワーによって高次近接を計算する。
より直感的に高次近接性を再定義することを提案する。
論文 参考訳(メタデータ) (2020-03-04T15:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。