論文の概要: PartRAG: Retrieval-Augmented Part-Level 3D Generation and Editing
- arxiv url: http://arxiv.org/abs/2602.17033v1
- Date: Thu, 19 Feb 2026 02:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.611342
- Title: PartRAG: Retrieval-Augmented Part-Level 3D Generation and Editing
- Title(参考訳): PartRAG: 検索機能強化されたパートレベル3D生成と編集
- Authors: Peize Li, Zeyu Zhang, Hao Tang,
- Abstract要約: PartRAGは、外部部分データベースを拡散変換器と統合して、編集可能な表現とペア生成する検索拡張フレームワークである。
PartRAGは、よりシャープな部分境界、より細い構造の忠実さ、そして明瞭な物体に頑健な振る舞いをもたらす。
- 参考スコア(独自算出の注目度): 14.700522731919904
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Single-image 3D generation with part-level structure remains challenging: learned priors struggle to cover the long tail of part geometries and maintain multi-view consistency, and existing systems provide limited support for precise, localized edits. We present PartRAG, a retrieval-augmented framework that integrates an external part database with a diffusion transformer to couple generation with an editable representation. To overcome the first challenge, we introduce a Hierarchical Contrastive Retrieval module that aligns dense image patches with 3D part latents at both part and object granularity, retrieving from a curated bank of 1,236 part-annotated assets to inject diverse, physically plausible exemplars into denoising. To overcome the second challenge, we add a masked, part-level editor that operates in a shared canonical space, enabling swaps, attribute refinements, and compositional updates without regenerating the whole object while preserving non-target parts and multi-view consistency. PartRAG achieves competitive results on Objaverse, ShapeNet, and ABO-reducing Chamfer Distance from 0.1726 to 0.1528 and raising F-Score from 0.7472 to 0.844 on Objaverse-with inference of 38s and interactive edits in 5-8s. Qualitatively, PartRAG produces sharper part boundaries, better thin-structure fidelity, and robust behavior on articulated objects. Code: https://github.com/AIGeeksGroup/PartRAG. Website: https://aigeeksgroup.github.io/PartRAG.
- Abstract(参考訳): 学習者は、部分ジオメトリの長い尾をカバーし、複数ビューの一貫性を維持するのに苦労し、既存のシステムは正確な局所的な編集を限定的にサポートしている。
本稿では、外部部分データベースと拡散変換器を統合した検索拡張フレームワークPartRAGを、編集可能な表現でペア生成する。
最初の課題を克服するために、階層的コントラスト検索モジュールを導入し、高密度画像パッチと3D部分潜像を両部分およびオブジェクトの粒度で整列させ、1,236個の部分注釈付き資産のキュレートされたバンクから取り出して、多様で物理的に妥当な例をデノベーションに注入する。
第2の課題を克服するために、マスク付き部分レベルのエディタを追加し、共有された標準空間内で動作し、オブジェクト全体を再生することなくスワップ、属性リファインメント、コンポジション更新を可能にする。
PartRAGは、Objaverse、ShapeNet、ABO-reducing Chamfer Distanceを0.1726から0.1528に引き上げ、Fスコアを0.7472から0.844に上げ、Objaverse-withの38と対話的な編集を5~8秒で行う。
定性的には、PartRAGはよりシャープな部分境界、より薄い構造の忠実度、そして明瞭な物体に対する頑健な振る舞いを生成する。
コード:https://github.com/AIGeeksGroup/PartRAG
ウェブサイト:https://aigeeksgroup.github.io/PartRAG
関連論文リスト
- PAct: Part-Decomposed Single-View Articulated Object Generation [45.04652409374895]
アーティキュレートされたオブジェクトは、AI、ロボティクス、VR/ARなど、インタラクティブな3Dアプリケーションの中心である。
明示的な部分認識条件下で部分幾何学, 構成, 調音を合成する, 調音オブジェクト生成のための部分中心生成フレームワークを提案する。
我々の表現は、オブジェクトを可動部品の集合としてモデル化し、それぞれ、部品のアイデンティティと調音の手がかりを付加した潜在トークンで符号化する。
論文 参考訳(メタデータ) (2026-02-16T17:45:44Z) - UniPart: Part-Level 3D Generation with Unified 3D Geom-Seg Latents [21.86068927019046]
分解可能で構造化された3D合成を必要とするアプリケーションには、部分レベル3D生成が不可欠である。
既存の手法では、粒度制御の制限のある暗黙的な部分のセグメンテーションに依存するか、あるいは大きな注釈付きデータセットでトレーニングされた強力な外部セグメンタに依存する。
画像誘導部分レベル3D生成のための2段階遅延拡散フレームワークUniPartを紹介する。
論文 参考訳(メタデータ) (2025-12-10T09:04:12Z) - TripleFDS: Triple Feature Disentanglement and Synthesis for Scene Text Editing [56.73004765030206]
STE(Scene Text Editing)は、視覚的一貫性を維持しながら、画像中のテキストを自然に修正することを目的としている。
本稿では,モジュラー属性をアンタングル化したSTEのための新しいフレームワークであるTripleFDSを提案する。
TripleFDSは、メインストリームのSTEベンチマークで最先端の画像忠実度(SSIM 44.54)とテキスト精度(ACC 93.58%)を達成する。
論文 参考訳(メタデータ) (2025-11-17T14:15:03Z) - PartNeXt: A Next-Generation Dataset for Fine-Grained and Hierarchical 3D Part Understanding [65.55036443711528]
PartNeXtは、23,000以上の高品質なテクスチャ付き3Dモデルを持つ次世代データセットで、50のカテゴリにわたるきめ細かな階層的なパーツラベルがアノテートされている。
そこで我々は,(1)クラス非依存な部分分割,最先端の手法が細粒度や葉のレベルに苦しむ部分分割,(2)3D部分中心の質問応答,(3)オープン語彙の部分接地における大きなギャップを明らかにする3D-LLMsの新しいベンチマークの2つのタスクについて,PartNeXtをベンチマークした。
論文 参考訳(メタデータ) (2025-10-23T03:06:08Z) - ReMix: Towards a Unified View of Consistent Character Generation and Editing [22.04681457337335]
ReMixは、文字一貫性の生成と編集のための統一されたフレームワークである。
ReMixモジュールとIP-ControlNetという2つのコアコンポーネントで構成されている。
ReMixはパーソナライズされた生成、画像編集、スタイル転送、マルチ条件合成など、幅広いタスクをサポートしている。
論文 参考訳(メタデータ) (2025-10-11T10:31:56Z) - From One to More: Contextual Part Latents for 3D Generation [38.36190651170286]
CoPartは、コヒーレントなマルチパーツ生成のために、3Dオブジェクトをコンテキスト部分潜在子に分解する、部分認識拡散フレームワークである。
そこで我々は,メッシュセグメンテーションと人間検証アノテーションから得られた新しい3次元部分データセットを構築した。
実験では、パートレベルの編集、オブジェクト生成、シーン構成において、前例のない制御性を持つCoPartの優れた能力を実証した。
論文 参考訳(メタデータ) (2025-07-11T17:33:18Z) - Efficient Part-level 3D Object Generation via Dual Volume Packing [51.712083185732894]
パートレベルの3Dオブジェクト生成のための新しいエンドツーエンドフレームワークを提案する。
提案手法は,任意の数の完全かつ意味論的に意味のある部分を持つ高品質な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2025-06-11T17:55:03Z) - DIPO: Dual-State Images Controlled Articulated Object Generation Powered by Diverse Data [67.99373622902827]
DIPOは、一対のイメージから調音された3Dオブジェクトを制御可能な生成するためのフレームワークである。
本稿では,イメージペア間の関係を捉え,部分配置と関節パラメータを生成するデュアルイメージ拡散モデルを提案する。
複雑な3Dオブジェクトの大規模データセットであるPM-Xについて,レンダリング画像,URDFアノテーション,テキスト記述を伴って提案する。
論文 参考訳(メタデータ) (2025-05-26T18:55:14Z) - IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。