論文の概要: VisDiff: SDF-Guided Polygon Generation for Visibility Reconstruction and Recognition
- arxiv url: http://arxiv.org/abs/2410.05530v2
- Date: Mon, 19 May 2025 16:55:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 17:08:51.439521
- Title: VisDiff: SDF-Guided Polygon Generation for Visibility Reconstruction and Recognition
- Title(参考訳): VisDiff: 可視化と認識のためのSDF誘導ポリゴン生成
- Authors: Rahul Moorthy, Volkan Isler,
- Abstract要約: 最近の研究は主に、明確に定義された特徴、近傍、または基礎となる距離のメトリクスを持つ構造を理解することに焦点を当てている。
現在の表現学習アプローチでは、適切に定義された特徴と距離のメトリクスなしで構造をキャプチャできない。
入力可視グラフからポリゴン$P$を生成する新しい拡散に基づくアプローチであるVisDiffを紹介する。
- 参考スコア(独自算出の注目度): 23.45542550861476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to capture rich representations of combinatorial structures has enabled the application of machine learning to tasks such as analysis and generation of floorplans, terrains, images, and animations. Recent work has primarily focused on understanding structures with well-defined features, neighborhoods, or underlying distance metrics, while those lacking such characteristics remain largely unstudied. Examples of these combinatorial structures can be found in polygons, where a small change in the vertex locations causes a significant rearrangement of the combinatorial structure, expressed as a visibility or triangulation graphs. Current representation learning approaches fail to capture structures without well-defined features and distance metrics. In this paper, we study the open problem of Visibility Reconstruction: Given a visibility graph $G$, construct a polygon $P$ whose visibility graph is $G$. We introduce VisDiff, a novel diffusion-based approach to generate polygon $P$ from the input visibility graph $G$. The main novelty of our approach is that, rather than generating the polygon's vertex set directly, we first estimate the signed distance function (SDF) associated with the polygon. The SDF is then used to extract the vertex location representing the final polygon. We show that going through the SDF allows VisDiff to learn the visibility relationship much more effectively than generating vertex locations directly. In order to train VisDiff, we create a carefully curated dataset. We use this dataset to benchmark our method and achieve 26% improvement in F1-Score over standard methods as well as state of the art approaches.
- Abstract(参考訳): 組合せ構造のリッチな表現をキャプチャする能力により、フロアプラン、地形、画像、アニメーションの分析や生成といったタスクに機械学習を適用できるようになった。
最近の研究は主に、明確に定義された特徴、近傍、または基礎となる距離のメトリクスを持つ構造を理解することに焦点を当てているが、そのような特徴を欠いているものは、ほとんど研究されていない。
これらの組合せ構造の例としては、頂点位置の小さな変化が可視グラフや三角グラフとして表される組合せ構造の顕著な再配置を引き起こすポリゴンがある。
現在の表現学習アプローチでは、適切に定義された特徴と距離のメトリクスなしで構造をキャプチャできない。
可視グラフが$G$を与えられたとき、可視グラフが$G$であるポリゴン$P$を構築する。
入力可視グラフ$G$からポリゴン$P$を生成する新しい拡散ベースのアプローチであるVisDiffを紹介する。
提案手法の主な特徴は,ポリゴンの頂点集合を直接生成するのではなく,まず,ポリゴンに付随する符号付き距離関数(SDF)を推定することである。
SDFは最後にポリゴンを表す頂点位置を抽出するために使用される。
SDFを通すことで、VisDiffは頂点位置を直接生成するよりもずっと効果的に視界関係を学習できることを示す。
VisDiffをトレーニングするために、慎重にキュレートされたデータセットを作成します。
このデータセットを用いて、我々の手法をベンチマークし、標準手法や最先端手法よりもF1スコアを26%向上させる。
関連論文リスト
- SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - RoIPoly: Vectorized Building Outline Extraction Using Vertex and Logit Embeddings [5.093758132026397]
航空画像や衛星画像から建物概要を抽出する新しいクエリベースの手法を提案する。
クエリとして各ポリゴンを定式化し、潜在的ビルディングの最も関連性の高い領域に対してクエリの注意を拘束する。
本手法は,2次元フロアプラン再構築データセットであるStructured3Dを用いて,ベクトル化建物アウトライン抽出データセット(CrowdAI)と2次元フロアプラン再構築データセット(Structured3D)について評価する。
論文 参考訳(メタデータ) (2024-07-20T16:12:51Z) - Learning Geometric Invariant Features for Classification of Vector Polygons with Graph Message-passing Neural Network [3.804240190982697]
本稿では,ポリゴンの形状分類のための幾何学的不変特徴を学習するために,新しいグラフメッセージパッシングニューラルネットワーク(PolyMP)を提案する。
提案したグラフベースPolyMPネットワークは,ポリゴンの幾何変換に不変な表現幾何学的特徴の学習を可能にする。
論文 参考訳(メタデータ) (2024-07-05T08:19:36Z) - PolygonGNN: Representation Learning for Polygonal Geometries with Heterogeneous Visibility Graph [8.971120205703887]
本稿では,多角形空間,特に多角形空間の表現を学習するためのフレームワークを提案する。
計算効率を向上し,グラフ冗長性を最小化するために,不均一なスパンニングツリーサンプリング手法を実装した。
また、可視性グラフに固有の空間的・意味的不均一性を活かした新しいモデルであるMultipolygon-GNNを導入する。
論文 参考訳(メタデータ) (2024-06-30T16:07:49Z) - PolyGNN: Polyhedron-based Graph Neural Network for 3D Building Reconstruction from Point Clouds [22.18061879431175]
PolyGNNは、再構成ポイントクラウドを構築するためのグラフニューラルネットワークである。
多面体分解によって得られる原始体を組み立てることを学ぶ。
都市間および実世界の点雲上での移動可能性解析を行う。
論文 参考訳(メタデータ) (2023-07-17T16:52:25Z) - GeoUDF: Surface Reconstruction from 3D Point Clouds via Geometry-guided
Distance Representation [73.77505964222632]
スパース点雲から離散曲面を再構成する問題に対処する学習ベース手法であるGeoUDFを提案する。
具体的には、UDFのための幾何誘導学習法とその勾配推定を提案する。
予測されたUDFから三角形メッシュを抽出するために,カスタマイズされたエッジベースマーチングキューブモジュールを提案する。
論文 参考訳(メタデータ) (2022-11-30T06:02:01Z) - Towards General-Purpose Representation Learning of Polygonal Geometries [62.34832826705641]
我々は,多角形形状を埋め込み空間に符号化できる汎用多角形符号化モデルを開発した。
1)MNISTに基づく形状分類,2)DBSR-46KとDBSR-cplx46Kという2つの新しいデータセットに基づく空間関係予測を行う。
以上の結果から,NUFTspec と ResNet1D は,既存のベースラインよりも有意なマージンで優れていた。
論文 参考訳(メタデータ) (2022-09-29T15:59:23Z) - Learning Spatial Context with Graph Neural Network for Multi-Person Pose
Grouping [71.59494156155309]
イメージベース多人数ポーズ推定のためのボトムアップ手法は,キーポイント検出とグループ化の2段階からなる。
本研究では,グラフ分割問題としてグループ化タスクを定式化し,グラフニューラルネットワーク(gnn)を用いて親和性行列を学習する。
学習された幾何学に基づく親和性は、強固なキーポイント結合を達成するために外観に基づく親和性とさらに融合する。
論文 参考訳(メタデータ) (2021-04-06T09:21:14Z) - Spatial-spectral Hyperspectral Image Classification via Multiple Random
Anchor Graphs Ensemble Learning [88.60285937702304]
本稿では,複数のランダムアンカーグラフアンサンブル学習(RAGE)を用いた空間スペクトルHSI分類手法を提案する。
まず、各選択されたバンドのより記述的な特徴を抽出し、局所的な構造と領域の微妙な変化を保存するローカルバイナリパターンを採用する。
次に,アンカーグラフの構成に適応隣接代入を導入し,計算複雑性を低減した。
論文 参考訳(メタデータ) (2021-03-25T09:31:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。