論文の概要: InfoCons: Identifying Interpretable Critical Concepts in Point Clouds via Information Theory
- arxiv url: http://arxiv.org/abs/2505.19820v1
- Date: Mon, 26 May 2025 10:58:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.370787
- Title: InfoCons: Identifying Interpretable Critical Concepts in Point Clouds via Information Theory
- Title(参考訳): InfoCons:情報理論によるポイントクラウドにおける解釈可能な臨界概念の同定
- Authors: Feifei Li, Mi Zhang, Zhaoxiang Wang, Min Yang,
- Abstract要約: 我々は、入力ポイントクラウドの意味的なサブセットとして定義された、解釈可能な臨界概念へのPCモデル出力の帰結に焦点をあてる。
本稿では,ポイントクラウドを3次元概念に分解するために情報理論の原則を適用した説明フレームワークInfoConsを提案する。
- 参考スコア(独自算出の注目度): 19.044009184525333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability of point cloud (PC) models becomes imperative given their deployment in safety-critical scenarios such as autonomous vehicles. We focus on attributing PC model outputs to interpretable critical concepts, defined as meaningful subsets of the input point cloud. To enable human-understandable diagnostics of model failures, an ideal critical subset should be *faithful* (preserving points that causally influence predictions) and *conceptually coherent* (forming semantically meaningful structures that align with human perception). We propose InfoCons, an explanation framework that applies information-theoretic principles to decompose the point cloud into 3D concepts, enabling the examination of their causal effect on model predictions with learnable priors. We evaluate InfoCons on synthetic datasets for classification, comparing it qualitatively and quantitatively with four baselines. We further demonstrate its scalability and flexibility on two real-world datasets and in two applications that utilize critical scores of PC.
- Abstract(参考訳): 自律走行車のような安全クリティカルなシナリオへの展開を考えると、ポイントクラウド(PC)モデルの解釈可能性は不可欠となる。
我々は、入力ポイントクラウドの意味的なサブセットとして定義された、解釈可能な臨界概念へのPCモデル出力の帰結に焦点をあてる。
モデル障害の人間の理解可能な診断を可能にするために、理想的なクリティカルサブセットは*faithful*(予測に因果的に影響を及ぼす点を保存する)と*conceptually coherent*(人間の知覚に合わせた意味論的意味のある構造を形成する)であるべきです。
本稿では,ポイントクラウドを3次元概念に分解するために情報理論の原理を適用した説明フレームワークInfoConsを提案する。
分類のための合成データセットのInfoConsを評価し,定性的に,定量的に4つのベースラインと比較した。
さらに、2つの実世界のデータセットと、PCの臨界スコアを利用する2つのアプリケーション上で、そのスケーラビリティと柔軟性を実証する。
関連論文リスト
- Can foundation models actively gather information in interactive environments to test hypotheses? [56.651636971591536]
隠れた報酬関数に影響を与える要因をモデルが決定しなければならない枠組みを導入する。
自己スループットや推論時間の増加といったアプローチが情報収集効率を向上させるかどうかを検討する。
論文 参考訳(メタデータ) (2024-12-09T12:27:21Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Bidirectional Knowledge Reconfiguration for Lightweight Point Cloud
Analysis [74.00441177577295]
ポイントクラウド分析は計算システムのオーバーヘッドに直面し、モバイルやエッジデバイスでの利用を制限する。
本稿では,軽量点雲モデルのための特徴蒸留について検討する。
本研究では,教師から生徒への情報的文脈的知識を抽出するための双方向知識再構成を提案する。
論文 参考訳(メタデータ) (2023-10-08T11:32:50Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Unsupervised Belief Representation Learning in Polarized Networks with
Information-Theoretic Variational Graph Auto-Encoders [26.640917190618612]
偏極ネットワークにおける信念表現学習のための教師なしアルゴリズムを開発した。
ユーザとコンテンツアイテム(例えば、ユーザビューを表す投稿)の両方を、適切に区切られた潜在空間に投影することを学ぶ。
ユーザとコンテンツの潜在表現は、イデオロギー的傾きを定量化し、問題に対する姿勢を検出し、予測するために使用することができる。
論文 参考訳(メタデータ) (2021-10-01T04:35:01Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Unifying Model Explainability and Robustness via Machine-Checkable
Concepts [33.88198813484126]
本稿では,機械チェック可能な概念を用いた頑健性評価フレームワークを提案する。
本フレームワークは, 予測堅牢性を評価するために, 説明をベースとした多種多様な概念を定義し, テスト時の説明整合性チェックを実施している。
実世界のデータセットと人間のサーベイの実験は、我々のフレームワークが予測の堅牢性を大幅に向上できることを示している。
論文 参考訳(メタデータ) (2020-07-01T05:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。