論文の概要: Capturing Shape Information with Multi-Scale Topological Loss Terms for
3D Reconstruction
- arxiv url: http://arxiv.org/abs/2203.01703v1
- Date: Thu, 3 Mar 2022 13:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 23:59:48.441760
- Title: Capturing Shape Information with Multi-Scale Topological Loss Terms for
3D Reconstruction
- Title(参考訳): マルチスケールトポロジカルロス項を用いた3次元再構成のための形状情報取得
- Authors: Dominik J. E. Waibel, Scott Atwell, Matthias Meier, Carsten Marr, and
Bastian Rieck
- Abstract要約: 本稿では, 連結成分, サイクル, 空隙などの多次元位相特徴を再構成損失に含め, 幾何学的形状情報を補完する手法を提案する。
提案手法は, 3次元体積データから3次元形状データから位相特性を計算し, 最適輸送距離を用いて復元過程を導出する。
SHAPRは2次元顕微鏡画像から個々の細胞の3次元細胞形状を予測するモデルである。
- 参考スコア(独自算出の注目度): 7.323706635751351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing 3D objects from 2D images is both challenging for our brains
and machine learning algorithms. To support this spatial reasoning task,
contextual information about the overall shape of an object is critical.
However, such information is not captured by established loss terms (e.g. Dice
loss). We propose to complement geometrical shape information by including
multi-scale topological features, such as connected components, cycles, and
voids, in the reconstruction loss. Our method calculates topological features
from 3D volumetric data based on cubical complexes and uses an optimal
transport distance to guide the reconstruction process. This topology-aware
loss is fully differentiable, computationally efficient, and can be added to
any neural network. We demonstrate the utility of our loss by incorporating it
into SHAPR, a model for predicting the 3D cell shape of individual cells based
on 2D microscopy images. Using a hybrid loss that leverages both geometrical
and topological information of single objects to assess their shape, we find
that topological information substantially improves the quality of
reconstructions, thus highlighting its ability to extract more relevant
features from image datasets.
- Abstract(参考訳): 2D画像から3Dオブジェクトを再構築することは、私たちの脳と機械学習アルゴリズムにとって難しい。
この空間的推論タスクを支援するためには、オブジェクトの全体形状に関するコンテキスト情報が必要である。
しかし、そのような情報は確立された損失項(例:ダイス損失)では捉えられない。
本稿では, 連結成分, サイクル, 空隙などの多次元位相特徴を再構成損失に含め, 幾何学的形状情報を補完することを提案する。
提案手法は, 3次元体積データから3次元形状データから位相特性を計算し, 最適輸送距離を用いて復元過程を導出する。
このトポロジ認識損失は、完全に微分可能で、計算効率が高く、任意のニューラルネットワークに追加することができる。
shaprは2次元顕微鏡画像に基づいて個々の細胞の3d細胞形状を予測するモデルである。
単一物体の幾何学的情報と位相的情報の両方を併用して形状を評価するハイブリッドロスにより,地形的情報により再構成の質が大幅に向上し,画像データセットからより関連性の高い特徴を抽出できることが明らかになった。
関連論文リスト
- Scalar Function Topology Divergence: Comparing Topology of 3D Objects [21.49200381462702]
コンピュータビジョンのための新しいトポロジツール - Scalar Function Topology Divergence (SFTD) を提案する。
SFTDは、共通領域を持つ2つの函数の下位レベル集合の間の多重スケール位相の相似性を測定する。
提案ツールは,関数が位相的相似性を持つ領域を視覚化する有用なツールである。
論文 参考訳(メタデータ) (2024-07-11T10:18:54Z) - LIST: Learning Implicitly from Spatial Transformers for Single-View 3D
Reconstruction [5.107705550575662]
Listは、局所的およびグローバルな画像特徴を活用して、単一の画像から3Dオブジェクトの幾何学的および位相的構造を再構築する、新しいニューラルネットワークである。
合成画像と実世界の画像から3Dオブジェクトを再構成する際のモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-07-23T01:01:27Z) - 3 Dimensional Dense Reconstruction: A Review of Algorithms and Dataset [19.7595986056387]
3D高密度再構成は、2次元平面画像から3次元物体の完全な形状とテクスチャ特性を得る過程を指す。
この研究は幾何学的および光学的モデルに基づく3次元高密度再構成の古典的手法を体系的に導入する。
さらに、ディープラーニングのためのデータセットや、これらのデータセット上でディープラーニングメソッドが示すパフォーマンスとメリット、デメリットも導入されている。
論文 参考訳(メタデータ) (2023-04-19T01:56:55Z) - Euler Characteristic Transform Based Topological Loss for Reconstructing
3D Images from Single 2D Slices [9.646922337783137]
オイラー特性変換に基づく新しい位相損失関数を提案する。
この損失は、任意のニューラルネットワークの、限られたデータの状態におけるより良い再構築に向けた最適化を支援するために、誘導バイアスとして使用できる。
現状の形状復元モデルであるSHAPRに組み込んだ損失関数の有効性を示す。
論文 参考訳(メタデータ) (2023-03-08T02:12:17Z) - 3D Shape Reconstruction from 2D Images with Disentangled Attribute Flow [61.62796058294777]
単一の2D画像から3D形状を再構築することは難しい作業だ。
従来の手法の多くは3次元再構成作業における意味的属性の抽出に苦慮している。
本稿では,3DAttriFlowを用いて,入力画像の異なる意味レベルから意味的属性を抽出する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:03:31Z) - 3D Reconstruction of Curvilinear Structures with Stereo Matching
DeepConvolutional Neural Networks [52.710012864395246]
本稿では,立体対における曲線構造の検出とマッチングのための完全自動パイプラインを提案する。
主に、TEM画像のステレオ対から転位を3次元再構成することに焦点を当てる。
論文 参考訳(メタデータ) (2021-10-14T23:05:47Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - STD-Net: Structure-preserving and Topology-adaptive Deformation Network
for 3D Reconstruction from a Single Image [27.885717341244014]
単一のビューイメージからの3D再構成は、コンピュータビジョンにおける長年の進歩である。
本稿では,メッシュ表現を用いた3次元モデル再構築のためのSTD-Netを提案する。
ShapeNetの画像による実験結果から, 提案したSTD-Netは, 3Dオブジェクトを再構成する他の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-03-07T11:02:47Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。