論文の概要: XSPLAIN: XAI-enabling Splat-based Prototype Learning for Attribute-aware INterpretability
- arxiv url: http://arxiv.org/abs/2602.10239v1
- Date: Tue, 10 Feb 2026 19:35:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.255521
- Title: XSPLAIN: XAI-enabling Splat-based Prototype Learning for Attribute-aware INterpretability
- Title(参考訳): XSPLAIN:属性認識不解釈のためのXAI対応スプラットベースプロトタイプ学習
- Authors: Dominik Galus, Julia Farganus, Tymoteusz Zapala, Mikołaj Czachorowski, Piotr Borycki, Przemysław Spurek, Piotr Syga,
- Abstract要約: 3DGSは急速に高忠実度3D再構築の標準となっているが、その採用は解釈可能性の欠如によって妨げられている。
3DGS分類に特化して設計された最初のアンテホックなプロトタイプベースの解釈可能性フレームワークであるXSPLAINを紹介する。
- 参考スコア(独自算出の注目度): 2.5131479455465144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has rapidly become a standard for high-fidelity 3D reconstruction, yet its adoption in multiple critical domains is hindered by the lack of interpretability of the generation models as well as classification of the Splats. While explainability methods exist for other 3D representations, like point clouds, they typically rely on ambiguous saliency maps that fail to capture the volumetric coherence of Gaussian primitives. We introduce XSPLAIN, the first ante-hoc, prototype-based interpretability framework designed specifically for 3DGS classification. Our approach leverages a voxel-aggregated PointNet backbone and a novel, invertible orthogonal transformation that disentangles feature channels for interpretability while strictly preserving the original decision boundaries. Explanations are grounded in representative training examples, enabling intuitive ``this looks like that'' reasoning without any degradation in classification performance. A rigorous user study (N=51) demonstrates a decisive preference for our approach: participants selected XSPLAIN explanations 48.4\% of the time as the best, significantly outperforming baselines $(p<0.001)$, showing that XSPLAIN provides transparency and user trust. The source code for this work is available at: https://github.com/Solvro/ml-splat-xai
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は急速に高忠実度3D再構成の標準となっているが、生成モデルの解釈可能性の欠如やSplatsの分類によって、複数のクリティカルドメインへの採用が妨げられている。
点雲のような他の3次元表現には説明可能性法が存在するが、それらは通常、ガウス原始体の体積的コヒーレンスを捉えるのに失敗するあいまいなサリエンシ写像に依存している。
3DGS分類に特化して設計された最初のアンテホックなプロトタイプベースの解釈可能性フレームワークであるXSPLAINを紹介する。
提案手法では,voxel-aggregated PointNetのバックボーンと,特徴チャネルを解釈し,元の決定境界を厳格に保持する,新しい非可逆直交変換を利用する。
説明は一般的なトレーニングの例に基礎を置いており、分類性能の劣化なしに、直感的な ` This looks that'' 推論を可能にしている。
厳密なユーザスタディ (N=51) は、我々のアプローチに対する決定的な好意を示している: 参加者が選択したXSPLAINの説明の48.4 %は、最高の、非常に優れたベースラインである$(p<0.001)$であり、XSPLAINが透明性とユーザ信頼を提供することを示している。
この作業のソースコードは、https://github.com/Solvro/ml-splat-xaiで公開されている。
関連論文リスト
- Splat the Net: Radiance Fields with Splattable Neural Primitives [64.84677516748998]
安定なニューラルプリミティブは、プリミティブベースのスプレイティングの効率でニューラルモデルの表現性を調整します。
私たちの表現は、高価な光線マーチングを必要とせずに、ビュー線に沿った統合をサポートします。
論文 参考訳(メタデータ) (2025-10-09T17:31:11Z) - ${C}^{3}$-GS: Learning Context-aware, Cross-dimension, Cross-scale Feature for Generalizable Gaussian Splatting [16.868578618340262]
Generalizable Gaussian Splattingは、シーンごとの最適化なしに、見えないシーンのための新しいビューを合成することを目的としている。
本稿では,コンテキスト認識,クロスディメンジョン,クロススケール制約を取り入れた特徴学習を支援するフレームワークであるmathbfC3$-GSを提案する。
我々のアーキテクチャは、3つの軽量モジュールを統合レンダリングパイプラインに統合し、機能融合を改善し、追加の監視を必要とせずに合成を可能にする。
論文 参考訳(メタデータ) (2025-08-28T13:12:18Z) - Splat Feature Solver [2.385329252971734]
本稿では,特徴持ち上げ問題のカーネルおよび特徴に依存しない定式化を,スパース線形逆問題として提示する。
解の安定化と意味的忠実度向上のための2つの相補的正則化戦略を導入する。
提案手法は,オープンボキャブラリ3次元セグメンテーションベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-08-17T03:13:06Z) - OpenSplat3D: Open-Vocabulary 3D Instance Segmentation using Gaussian Splatting [52.40697058096931]
3D Gaussian Splatting (3DGS)は神経シーン再構築の強力な表現として登場した。
我々は,OpenSplat3Dと呼ばれる手動ラベリングを必要としないオープン語彙3Dインスタンスセグメンテーションのアプローチを提案する。
LERF-mask と LERF-OVS と ScanNet++ の完全な検証セットについて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-06-09T12:37:15Z) - EasySplat: View-Adaptive Learning makes 3D Gaussian Splatting Easy [34.27245715540978]
高品質な3DGSモデリングを実現するための新しいフレームワークEasySplatを提案する。
本稿では、ビュー類似性に基づく効率的なグループ化戦略を提案し、高品質な点雲を得るためにロバストな点マップを前もって利用する。
信頼性の高いシーン構造を得た後、近隣のガウス楕円体の平均形状に基づいてガウス原始体を適応的に分割する新しいデンシフィケーション手法を提案する。
論文 参考訳(メタデータ) (2025-01-02T01:56:58Z) - Occam's LGS: An Efficient Approach for Language Gaussian Splatting [57.00354758206751]
言語3Dガウススプラッティングのための複雑なパイプラインは、単純に不要であることを示す。
我々は,オッカムのカミソリを手作業に適用し,高効率な重み付き多視点特徴集約技術を実現する。
論文 参考訳(メタデータ) (2024-12-02T18:50:37Z) - Epipolar-Free 3D Gaussian Splatting for Generalizable Novel View Synthesis [25.924727931514735]
一般化可能な3DGSは、フィードフォワード推論方式でスパースビュー観測から新しいシーンを再構築することができる。
既存の手法は、複雑な現実世界のシーンでは信頼できないエピポーラ先行に大きく依存している。
一般化可能な新規ビュー合成のための効率的なフィードフォワード3DGSモデルであるeFreeSplatを提案する。
論文 参考訳(メタデータ) (2024-10-30T08:51:29Z) - GS-CLIP: Gaussian Splatting for Contrastive Language-Image-3D
Pretraining from Real-World Data [73.06536202251915]
ポイントクラウドとして表される3D形状は、画像と言語記述を整列させるために、マルチモーダル事前トレーニングの進歩を実現している。
GS-CLIPは,3D表現を向上させるために,マルチモーダル事前学習に3DGSを導入するための最初の試みである。
論文 参考訳(メタデータ) (2024-02-09T05:46:47Z) - SplatMesh: Interactive 3D Segmentation and Editing Using Mesh-Based Gaussian Splatting [86.50200613220674]
3Dベースのインタラクティブ編集における重要な課題は、与えられたメモリ制約の下で様々な修正と高品質なビュー合成のバランスをとる効率的な表現がないことである。
SplatMeshは,3次元ガウススプラッティングと事前計算メッシュを統合した,対話型3Dセグメンテーション・編集アルゴリズムである。
単純化されたメッシュのセグメンテーションと編集により、ガウススプレートの編集も効果的に行えます。
論文 参考訳(メタデータ) (2023-12-26T02:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。