論文の概要: Abstract Rendering: Computing All that is Seen in Gaussian Splat Scenes
- arxiv url: http://arxiv.org/abs/2503.00308v2
- Date: Tue, 04 Mar 2025 06:08:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:19:19.288997
- Title: Abstract Rendering: Computing All that is Seen in Gaussian Splat Scenes
- Title(参考訳): 抽象レンダリング: ガウスのスプラットシーンで見るすべての計算
- Authors: Yangge Li, Chenxi Ji, Xiangru Zhong, Huan Zhang, Sayan Mitra,
- Abstract要約: 本稿では、連続的に変化するカメラ位置からシーンをレンダリングすることで、画像の集合を計算する抽象レンダリングを紹介する。
この能力は、視覚ベースの自律システムやその他の安全クリティカルな応用の正式な検証に特に有用である。
- 参考スコア(独自算出の注目度): 9.906888027611576
- License:
- Abstract: We introduce abstract rendering, a method for computing a set of images by rendering a scene from a continuously varying range of camera positions. The resulting abstract image-which encodes an infinite collection of possible renderings-is represented using constraints on the image matrix, enabling rigorous uncertainty propagation through the rendering process. This capability is particularly valuable for the formal verification of vision-based autonomous systems and other safety-critical applications. Our approach operates on Gaussian splat scenes, an emerging representation in computer vision and robotics. We leverage efficient piecewise linear bound propagation to abstract fundamental rendering operations, while addressing key challenges that arise in matrix inversion and depth sorting-two operations not directly amenable to standard approximations. To handle these, we develop novel linear relational abstractions that maintain precision while ensuring computational efficiency. These abstractions not only power our abstract rendering algorithm but also provide broadly applicable tools for other rendering problems. Our implementation, AbstractSplat, is optimized for scalability, handling up to 750k Gaussians while allowing users to balance memory and runtime through tile and batch-based computation. Compared to the only existing abstract image method for mesh-based scenes, AbstractSplat achieves 2-14x speedups while preserving precision. Our results demonstrate that continuous camera motion, rotations, and scene variations can be rigorously analyzed at scale, making abstract rendering a powerful tool for uncertainty-aware vision applications.
- Abstract(参考訳): 本稿では、連続的に変化するカメラ位置からシーンをレンダリングすることで、画像の集合を計算する抽象レンダリングを紹介する。
結果として得られる抽象画像は、可能なレンダリングの無限の集合を、画像マトリックス上の制約を使って表現し、レンダリングプロセスを通じて厳密な不確実性伝播を可能にする。
この能力は、視覚ベースの自律システムやその他の安全クリティカルな応用の正式な検証に特に有用である。
我々のアプローチは、コンピュータビジョンとロボティクスにおける新たな表現であるガウスのスプラッターシーンで運用されている。
本研究では,行列の逆転や深度ソートに生じる重要な問題に対処しながら,効率的な分割線形境界伝搬を抽象的な基本的なレンダリング操作に活用する。
これらの問題に対処するため,計算効率を確保しつつ精度を向上する線形線形抽象法を開発した。
これらの抽象化は、抽象的なレンダリングアルゴリズムだけでなく、他のレンダリング問題に対して広く適用可能なツールも提供する。
我々の実装であるAbstractSplatはスケーラビリティに最適化されており、最大750kガウスを処理し、タイルとバッチベースの計算によってメモリとランタイムのバランスをとることができます。
メッシュベースのシーンを抽象化する唯一の方法と比較して、AbstractSplatは精度を保ちながら2~14倍のスピードアップを実現している。
この結果から,連続カメラの動作,回転,シーンの変動を大規模に解析することが可能であり,抽象的レンダリングは不確実性を認識した視覚応用のための強力なツールとなることが示唆された。
関連論文リスト
- Image-GS: Content-Adaptive Image Representation via 2D Gaussians [55.15950594752051]
本稿では,コンテンツ適応型画像表現であるImage-GSを提案する。
異方性2Dガウスアンをベースとして、Image-GSは高いメモリ効率を示し、高速なランダムアクセスをサポートし、自然なレベルのディテールスタックを提供する。
画像-GSの一般的な効率性と忠実性は、最近のニューラルイメージ表現と業界標準テクスチャ圧縮機に対して検証される。
この研究は、機械認識、アセットストリーミング、コンテンツ生成など、適応的な品質とリソース制御を必要とする新しいアプリケーションを開発するための洞察を与えてくれることを願っている。
論文 参考訳(メタデータ) (2024-07-02T00:45:21Z) - Rasterized Edge Gradients: Handling Discontinuities Differentiably [25.85191317712521]
近似を描画する不連続点の勾配を計算するための新しい手法を提案する。
本手法は, 慎重に設計した近似戦略により, 従来の複雑な問題をエレガントに単純化する。
我々は,人間の頭部のシーン再構成において,カメラ画像とセグメンテーションマスクのハンドリングを実演する。
論文 参考訳(メタデータ) (2024-05-03T22:42:00Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - CROSSFIRE: Camera Relocalization On Self-Supervised Features from an
Implicit Representation [3.565151496245487]
我々は,あるシーンの暗黙の地図としてニューラル・ラジアンス・フィールドを使用し,この表現に適したカメラ再配置を提案する。
提案手法は,ナビゲーション中に1台のRGBカメラを用いて,デバイスの正確な位置をリアルタイムで計算することができる。
論文 参考訳(メタデータ) (2023-03-08T20:22:08Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - A Novel Algorithm for Exact Concave Hull Extraction [0.0]
領域抽出は、自律運転における物体検出から細胞生物学における細胞内形態解析まで、幅広い用途で必要とされる。
2つの主要なアプローチがある: 凸殻抽出(convex hull extract)は、正確で効率的なアルゴリズムが存在し、実世界の形状を捉えるのに優れているが、単一の解を持たない。
本研究では,コンケーブ内包を最大分解能(ピクセル完全)で提供し,速度効率のトレードオフを調整可能な新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-23T05:26:48Z) - RISP: Rendering-Invariant State Predictor with Differentiable Simulation
and Rendering for Cross-Domain Parameter Estimation [110.4255414234771]
既存のソリューションでは、大量のトレーニングデータが必要か、未知のレンダリング設定への一般化性が欠如している。
本稿では、ドメインのランダム化と微分可能なレンダリング勾配を併用してこの問題に対処する手法を提案する。
提案手法は, 再構成誤差を大幅に低減し, 未知のレンダリング構成間の一般化性が向上する。
論文 参考訳(メタデータ) (2022-05-11T17:59:51Z) - ERF: Explicit Radiance Field Reconstruction From Scratch [12.254150867994163]
センサのポーズとキャリブレーションでシーンの一連の画像を処理し,フォトリアルなデジタルモデルを推定する,新しい高密度3次元再構成手法を提案する。
重要な革新の1つは、根底にある体積表現が完全に明示的であることである。
我々は,本手法が汎用的かつ実用的であることを示し,撮影に高度に制御された実験室の設置は必要とせず,多種多様な物体でシーンを再構築することができることを示した。
論文 参考訳(メタデータ) (2022-02-28T19:37:12Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。