論文の概要: ArtisanGS: Interactive Tools for Gaussian Splat Selection with AI and Human in the Loop
- arxiv url: http://arxiv.org/abs/2602.10173v1
- Date: Tue, 10 Feb 2026 16:00:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.218539
- Title: ArtisanGS: Interactive Tools for Gaussian Splat Selection with AI and Human in the Loop
- Title(参考訳): ArtisanGS: ループ内のAIと人間によるガウス的スプレイ選択のためのインタラクティブツール
- Authors: Clement Fuji Tsang, Anita Hu, Or Perel, Carsten Kolve, Maria Shugrina,
- Abstract要約: 本稿では,多彩なガウススプラッター選択とセグメンテーションを中心に,インタラクティブなツールスイートを紹介する。
ユーザガイド付き2D選択マスクを3DGS選択に伝達する高速AI駆動方式を提案する。
これによりユーザは、構造化されていない3DGSシーンの事実上のバイナリセグメンテーションを達成できる。
- 参考スコア(独自算出の注目度): 4.076648467631295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation in the family of 3D Gaussian Splats (3DGS) are growing into a viable alternative to traditional graphics for an expanding number of application, including recent techniques that facilitate physics simulation and animation. However, extracting usable objects from in-the-wild captures remains challenging and controllable editing techniques for this representation are limited. Unlike the bulk of emerging techniques, focused on automatic solutions or high-level editing, we introduce an interactive suite of tools centered around versatile Gaussian Splat selection and segmentation. We propose a fast AI-driven method to propagate user-guided 2D selection masks to 3DGS selections. This technique allows for user intervention in the case of errors and is further coupled with flexible manual selection and segmentation tools. These allow a user to achieve virtually any binary segmentation of an unstructured 3DGS scene. We evaluate our toolset against the state-of-the-art for Gaussian Splat selection and demonstrate their utility for downstream applications by developing a user-guided local editing approach, leveraging a custom Video Diffusion Model. With flexible selection tools, users have direct control over the areas that the AI can modify. Our selection and editing tools can be used for any in-the-wild capture without additional optimization.
- Abstract(参考訳): 3D Gaussian Splats (3DGS)ファミリーの表現は、物理シミュレーションとアニメーションを促進する最近の技術を含む、多くのアプリケーションのために、従来のグラフィックの代替として実現可能なものに成長している。
しかし、Wild キャプチャから使用可能なオブジェクトを抽出することは依然として困難であり、この表現のための制御可能な編集技術は限られている。
自動解法やハイレベル編集に重点を置く多くの新興技術とは異なり、多目的ガウススプラッター選択とセグメンテーションを中心にしたインタラクティブなツールスイートを導入する。
ユーザガイド付き2D選択マスクを3DGS選択に伝達する高速AI駆動方式を提案する。
この技術はエラーの場合にユーザの介入を可能にし、フレキシブルな手動選択とセグメンテーションツールと結合する。
これによりユーザは、構造化されていない3DGSシーンの事実上のバイナリセグメンテーションを達成できる。
我々は,ガウス版Splat選択の最先端技術に対してツールセットを評価し,ユーザ主導のローカル編集アプローチを開発し,独自のビデオ拡散モデルを活用することにより,下流アプリケーションに対するその有用性を実証する。
フレキシブルな選択ツールによって、ユーザーはAIが修正できる領域を直接コントロールできる。
我々の選択と編集ツールは、追加の最適化なしに、Wildでのキャプチャに利用できる。
関連論文リスト
- AG$^2$aussian: Anchor-Graph Structured Gaussian Splatting for Instance-Level 3D Scene Understanding and Editing [12.988814956246033]
3D Gaussian Splatting (3DGS)は、様々なアプリケーションにまたがって指数関数的な採用を目撃し、セマンティック・アウェアな表現を重要視している。
既存のアプローチは通常、自由ガウスの集合に意味的特徴を付加し、微分可能なレンダリングによって特徴を蒸留する。
AG$2$aussianは、アンカーグラフ構造を利用して意味的特徴を整理し、ガウス的プリミティブを規制する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-08-03T12:47:30Z) - FlexGS: Train Once, Deploy Everywhere with Many-in-One Flexible 3D Gaussian Splatting [57.97160965244424]
3Dガウススプラッティング(3DGS)は、3Dシーン表現や新しいビュー合成に様々な応用を可能にしている。
従来のアプローチでは、重要でないガウス人を刈り取ることに重点を置いており、3DGSを効果的に圧縮している。
本稿では3DGSの弾性推論手法を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:17:57Z) - iSegMan: Interactive Segment-and-Manipulate 3D Gaussians [5.746109453405226]
iSegManはインタラクティブなセグメンテーションと操作のフレームワークで、どんなビューでも単純な2Dユーザーインタラクションしか必要としない。
エピポーラ誘導相互作用伝播(EIP)は、効率的でロバストな相互作用マッチングのためにエピポーラ制約を利用する。
可視性に基づくガウス投票(VGV)はSAMから2Dセグメンテーションを取得し、領域抽出を投票ゲームとしてモデル化する。
論文 参考訳(メタデータ) (2025-05-17T09:41:10Z) - ProGDF: Progressive Gaussian Differential Field for Controllable and Flexible 3D Editing [10.559263123994723]
3D編集は、既存の3Dアセットの編集と再利用において重要な役割を担い、生産性を向上させる。
近年、3DGSベースの手法は、効率的なレンダリングと柔軟性のために注目を集めている。
3次元編集のためのプロセス指向モデリングの概念を導入し、プログレッシブガウス微分場(ProGDF)を提案する。
ProGDFはループ外トレーニングのアプローチであり、ユーザがリアルタイムでコントロール可能な編集機能と、ユーザフレンドリなインターフェースによる可変編集結果を提供するために、単一のトレーニングセッションのみを必要とする。
論文 参考訳(メタデータ) (2024-12-11T07:13:02Z) - 3D Gaussian Editing with A Single Image [19.662680524312027]
本稿では,3次元ガウシアンスプラッティングをベースとしたワンイメージ駆動の3Dシーン編集手法を提案する。
提案手法は,ユーザが指定した視点から描画した画像の編集版に合わせるために,3次元ガウスを最適化することを学ぶ。
実験により, 幾何学的詳細処理, 長距離変形, 非剛性変形処理における本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-14T13:17:42Z) - DGE: Direct Gaussian 3D Editing by Consistent Multi-view Editing [72.54566271694654]
オープンな言語命令に基づいて3Dオブジェクトやシーンを編集する際の問題点を考察する。
この問題に対する一般的なアプローチは、3D編集プロセスをガイドするために2Dイメージジェネレータまたはエディタを使用することである。
このプロセスは、コストのかかる3D表現の反復的な更新を必要とするため、しばしば非効率である。
論文 参考訳(メタデータ) (2024-04-29T17:59:30Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。