論文の概要: Affostruction: 3D Affordance Grounding with Generative Reconstruction
- arxiv url: http://arxiv.org/abs/2601.09211v1
- Date: Wed, 14 Jan 2026 06:33:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.294792
- Title: Affostruction: 3D Affordance Grounding with Generative Reconstruction
- Title(参考訳): Affostruction: 3D Affordance Grounding with Generative Reconstruction
- Authors: Chunghyun Park, Seunghyeon Lee, Minsu Cho,
- Abstract要約: Affostructionは、部分的な観察から完全な幾何学を再構築する生成フレームワークであり、その全形状に余裕がある。
空き地での19.1 aIoUと3次元再構築のための32.67 IoUを達成し、完全な形状の正確な空き地予測を可能にする。
- 参考スコア(独自算出の注目度): 50.586896835836164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the problem of affordance grounding from RGBD images of an object, which aims to localize surface regions corresponding to a text query that describes an action on the object. While existing methods predict affordance regions only on visible surfaces, we propose Affostruction, a generative framework that reconstructs complete geometry from partial observations and grounds affordances on the full shape including unobserved regions. We make three core contributions: generative multi-view reconstruction via sparse voxel fusion that extrapolates unseen geometry while maintaining constant token complexity, flow-based affordance grounding that captures inherent ambiguity in affordance distributions, and affordance-driven active view selection that leverages predicted affordances for intelligent viewpoint sampling. Affostruction achieves 19.1 aIoU on affordance grounding (40.4\% improvement) and 32.67 IoU for 3D reconstruction (67.7\% improvement), enabling accurate affordance prediction on complete shapes.
- Abstract(参考訳): 本稿では,オブジェクトに対するアクションを記述したテキストクエリに対応する表面領域をローカライズすることを目的とした,オブジェクトのRGBD画像からの価格グラウンドの問題に対処する。
既存の方法では可視光面のみの可測領域を予測できるが,部分的な観測から完全な幾何学を再構築する生成フレームワークであるAffostructionを提案する。
一定のトークンの複雑さを維持しながら、未知の幾何を補間するスパースボクセル融合による生成的多視点再構成、空き地分布の固有曖昧さを捉えるフローベースアベイランスグラウンド、知的視点サンプリングの予測空き量を利用するアベイランス駆動型アクティブビューセレクションの3つのコアコントリビューションを作成している。
Affostruction は3D再構成のための空き地(40.4\%改善)で19.1 aIoU、32.67 IoU(67.7\%改善)を達成し、完全な形状で正確な空き地予測を可能にする。
関連論文リスト
- Faithful Contouring: Near-Lossless 3D Voxel Representation Free from Iso-surface [49.742538510885]
本稿では,3次元メッシュにおけるほぼロスレスな忠実度を実現するボクセル化表現であるFithful Contouringを提案する。
提案手法は,既存表現の柔軟性と改善も示す。
論文 参考訳(メタデータ) (2025-11-06T03:56:12Z) - ReconViaGen: Towards Accurate Multi-view 3D Object Reconstruction via Generation [28.308731720451053]
我々はReconViaGenを提案する。
我々のReconViaGenは、グローバルな構造と局所的な詳細の両方において、入力ビューと整合した完全かつ正確な3Dモデルを再構築できることを実証した。
論文 参考訳(メタデータ) (2025-10-27T13:15:06Z) - G4Splat: Geometry-Guided Gaussian Splatting with Generative Prior [53.762256749551284]
我々は,3次元シーン再構成を効果的に活用するための基本的な前提条件として,正確な幾何学を同定する。
生成パイプライン全体にこの幾何学的ガイダンスを導入し、可視性マスク推定を改善し、新しいビュー選択をガイドし、ビデオ拡散モデルに着色した場合の多視点一貫性を向上させる。
本手法は,屋内および屋外の両方のシナリオにおいて,高い一般化性を有するシングルビュー入力とアンポーズ映像を自然にサポートする。
論文 参考訳(メタデータ) (2025-10-14T03:06:28Z) - Zero-P-to-3: Zero-Shot Partial-View Images to 3D Object [55.93553895520324]
そこで本研究では,局所的な高密度観測と複数ソースの事前情報を統合した学習自由手法を提案する。
本手法では, DDIMサンプリングにおいて, これらの先行情報を効果的に整合させる融合方式を導入し, 多視点一貫した画像を生成し, 見えない視界を監督する。
論文 参考訳(メタデータ) (2025-05-29T03:51:37Z) - Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - Point Scene Understanding via Disentangled Instance Mesh Reconstruction [21.92736190195887]
本稿では,効率的なポイントシーン理解のために,aDisentangled Instance Mesh Reconstruction (DIMR) フレームワークを提案する。
セグメント化ベースのバックボーンは、偽陽性オブジェクトの提案を減らすために適用される。
メッシュを意識した潜在コード空間を活用して、シェイプコンプリートとメッシュ生成のプロセスを切り離します。
論文 参考訳(メタデータ) (2022-03-31T06:36:07Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。