論文の概要: NAISR: A 3D Neural Additive Model for Interpretable Shape Representation
- arxiv url: http://arxiv.org/abs/2303.09234v4
- Date: Thu, 5 Oct 2023 09:25:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 22:42:08.816733
- Title: NAISR: A 3D Neural Additive Model for Interpretable Shape Representation
- Title(参考訳): NAISR: 解釈可能な形状表現のための3次元ニューラル付加モデル
- Authors: Yining Jiao, Carlton Zdanski, Julia Kimbell, Andrew Prince, Cameron
Worden, Samuel Kirse, Christopher Rutter, Benjamin Shields, William Dunn,
Jisan Mahmud, Marc Niethammer
- Abstract要約: 科学的な形状発見のための解釈可能な形状表現のための3次元ニューラル付加モデル(テキストNAISR$)を提案する。
本手法は, 形状人口の傾向を把握し, 形状移動による患者固有の予測を可能にする。
我々の実験は、textitStarman$が解釈可能性を維持しながら優れた形状復元性能を発揮することを示した。
- 参考スコア(独自算出の注目度): 10.590461725369117
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep implicit functions (DIFs) have emerged as a powerful paradigm for many
computer vision tasks such as 3D shape reconstruction, generation,
registration, completion, editing, and understanding. However, given a set of
3D shapes with associated covariates there is at present no shape
representation method which allows to precisely represent the shapes while
capturing the individual dependencies on each covariate. Such a method would be
of high utility to researchers to discover knowledge hidden in a population of
shapes. For scientific shape discovery, we propose a 3D Neural Additive Model
for Interpretable Shape Representation ($\texttt{NAISR}$) which describes
individual shapes by deforming a shape atlas in accordance to the effect of
disentangled covariates. Our approach captures shape population trends and
allows for patient-specific predictions through shape transfer.
$\texttt{NAISR}$ is the first approach to combine the benefits of deep implicit
shape representations with an atlas deforming according to specified
covariates. We evaluate $\texttt{NAISR}$ with respect to shape reconstruction,
shape disentanglement, shape evolution, and shape transfer on three datasets:
1) $\textit{Starman}$, a simulated 2D shape dataset; 2) the ADNI hippocampus 3D
shape dataset; and 3) a pediatric airway 3D shape dataset. Our experiments
demonstrate that $\textit{Starman}$ achieves excellent shape reconstruction
performance while retaining interpretability. Our code is available at
$\href{https://github.com/uncbiag/NAISR}{https://github.com/uncbiag/NAISR}$.
- Abstract(参考訳): 深暗黙の関数(DIF)は、3次元形状の再構成、生成、登録、完了、編集、理解といった多くのコンピュータビジョンタスクの強力なパラダイムとして登場した。
しかし、関連する共変量を持つ一連の3次元形状が与えられると、各共変量に対する個々の依存を捉えながら正確に形状を表現できる形状表現法は存在しない。
このような手法は、形状の集団に隠された知識を発見する研究者にとって有用である。
科学的な形状発見のための3次元ニューラルネットワークによる解釈可能な形状表現モデル(\texttt{NAISR}$)を提案する。
このアプローチは形状人口の傾向を捉え、形状伝達を通じて患者固有の予測を可能にする。
$\texttt{NAISR}$は、深い暗黙の形状表現の利点と特定の共変量に従って変形するアトラスを結合する最初のアプローチである。
形状再構成, 形状展開, 形状変化, 形状伝達について, 3つのデータセットで$\texttt{NAISR}$を評価する。
1) $\textit{Starman}$, シミュレーションされた2D形状データセット。
2)ADNI海馬3次元形状データセット,及び
3)小児気道3次元形状データセット。
実験の結果,$\textit{Starman}$は,解釈性を維持しながら優れた形状復元性能を発揮することがわかった。
私たちのコードは$\href{https://github.com/uncbiag/NAISR}{https://github.com/uncbiag/NAISR}$で利用可能です。
関連論文リスト
- Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - Diffusion 3D Features (Diff3F): Decorating Untextured Shapes with Distilled Semantic Features [27.44390031735071]
Diff3Fは、非テクスチャ入力のためのクラスに依存しない特徴記述子である。
画像基礎モデルから入力形状への拡散特性を蒸留する。
その過程で2次元で(拡散)特徴を生成し、その後、元の表面に持ち上げて集約する。
論文 参考訳(メタデータ) (2023-11-28T18:27:15Z) - GIFS: Neural Implicit Function for General Shape Representation [23.91110763447458]
3次元形状の一般インプリシット関数 (GIFS) は, 一般形状を表す新しい手法である。
3D空間を事前に定義された内側の領域に分割する代わりに、GIFSは2つの点が任意の表面で分離されているかどうかを符号化する。
ShapeNetの実験では、GIFSは再現性、レンダリング効率、視覚的忠実度の観点から、従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-14T17:29:20Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - AutoSDF: Shape Priors for 3D Completion, Reconstruction and Generation [29.018733252938926]
パワフルな事前処理によって、不十分な情報で推論を実行できます。
本稿では, 形状完了, 復元, 生成といったマルチモーダルな3次元課題を解決するために, 3次元形状に対する自己回帰前処理を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:59:54Z) - ShapeFormer: Transformer-based Shape Completion via Sparse
Representation [41.33457875133559]
本稿では,不完全でノイズの多い点雲に条件付きオブジェクト完了の分布を生成するネットワークであるShapeFormerを提案する。
結果の分布をサンプリングして、入力に忠実な状態で、それぞれがもっともらしい形状の詳細を示す、可能性のある完了を生成する。
論文 参考訳(メタデータ) (2022-01-25T13:58:30Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Hard Example Generation by Texture Synthesis for Cross-domain Shape
Similarity Learning [97.56893524594703]
画像に基づく3次元形状検索(IBSR)は、与えられた2次元画像の対応する3次元形状を、大きな3次元形状データベースから見つけることを目的としている。
いくつかの適応技法によるメートル法学習は、類似性学習を形作るための自然な解決策のようです。
テクスチャ合成を応用した幾何中心の多視点メトリック学習フレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-23T08:52:00Z) - RISA-Net: Rotation-Invariant Structure-Aware Network for Fine-Grained 3D
Shape Retrieval [46.02391761751015]
きめ細かい3D形状の検索は、同じクラスに属するモデルを持つレポジトリのクエリ形状に似た3D形状の検索を目的としている。
回転不変な3次元形状記述子を学習する新しいディープアーキテクチャ RISA-Net を提案する。
本手法は,3次元形状の最終コンパクト潜時特徴を生成する際に,各部分の幾何学的・構造的情報の重要性を学習することができる。
論文 参考訳(メタデータ) (2020-10-02T13:06:12Z) - KAPLAN: A 3D Point Descriptor for Shape Completion [80.15764700137383]
KAPLANは、一連の2D畳み込みを通じて局所的な形状情報を集約する3Dポイント記述子である。
各平面において、正規点や平面間距離のような点特性は2次元グリッドに集約され、効率的な2次元畳み込みエンコーダを持つ特徴表現に抽象化される。
公開データセットの実験では、KAPLANが3D形状の完成のために最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2020-07-31T21:56:08Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。