論文の概要: MindCraft: How Concept Trees Take Shape In Deep Models
- arxiv url: http://arxiv.org/abs/2510.03265v1
- Date: Fri, 26 Sep 2025 20:39:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-12 15:03:05.821088
- Title: MindCraft: How Concept Trees Take Shape In Deep Models
- Title(参考訳): MindCraft: 概念木が深層モデルの形を作る方法
- Authors: Bowei Tian, Yexiao He, Wanghao Ye, Ziyao Wang, Meng Liu, Ang Li,
- Abstract要約: コンセプトツリー上に構築されたMindCraftフレームワークを紹介します。
概念木は階層的な概念の出現を再構築し、共有表現から線形に分離可能な部分空間へと正確に分岐する。
実証的な評価は、概念ツリーが意味的階層を回復し、潜在概念を歪め、複数のドメインにまたがって広く適用可能であることを示している。
- 参考スコア(独自算出の注目度): 15.113541622429084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale foundation models demonstrate strong performance across language, vision, and reasoning tasks. However, how they internally structure and stabilize concepts remains elusive. Inspired by causal inference, we introduce the MindCraft framework built upon Concept Trees. By applying spectral decomposition at each layer and linking principal directions into branching Concept Paths, Concept Trees reconstruct the hierarchical emergence of concepts, revealing exactly when they diverge from shared representations into linearly separable subspaces. Empirical evaluations across diverse scenarios across disciplines, including medical diagnosis, physics reasoning, and political decision-making, show that Concept Trees recover semantic hierarchies, disentangle latent concepts, and can be widely applied across multiple domains. The Concept Tree establishes a widely applicable and powerful framework that enables in-depth analysis of conceptual representations in deep models, marking a significant step forward in the foundation of interpretable AI.
- Abstract(参考訳): 大規模基盤モデルは、言語、ビジョン、推論タスクにまたがる強力なパフォーマンスを示している。
しかし、それらがどのように内部構造を保ち、概念を安定させるかは、いまだ解明されていない。
因果推論に触発されて、概念木の上に構築されたMindCraftフレームワークを紹介します。
各層にスペクトル分解を適用し、主方向を分岐する概念パスにリンクすることで、概念ツリーは概念の階層的な出現を再構築し、共有表現から線形分離可能な部分空間へと正確に分岐する。
医学的診断、物理学的推論、政治的意思決定など、様々な分野にわたる経験的評価は、概念木が意味的階層を回復し、潜在概念を解体し、複数の領域にまたがって広く適用可能であることを示している。
コンセプトツリーは、ディープモデルにおける概念表現の詳細な分析を可能にする、広く適用可能な強力なフレームワークを確立し、解釈可能なAIの基礎において重要な一歩を踏み出した。
関連論文リスト
- ConceptFlow: Hierarchical and Fine-grained Concept-Based Explanation for Convolutional Neural Networks [14.365259717799034]
畳み込みニューラルネットワーク(CNN)の概念に基づく解釈可能性とは、内部モデル表現と高レベルの意味論的概念の整合性である。
モデルの内部の「思考経路」をシミュレートする概念ベースの解釈可能性フレームワークであるConceptFlowを提案する。
論文 参考訳(メタデータ) (2025-09-16T03:02:46Z) - OmniPrism: Learning Disentangled Visual Concept for Image Generation [57.21097864811521]
創造的な視覚概念の生成は、しばしば関連する結果を生み出すために参照イメージ内の特定の概念からインスピレーションを引き出す。
我々は,創造的画像生成のための視覚的概念分離手法であるOmniPrismを提案する。
提案手法は,自然言語で案内される不整合概念表現を学習し,これらの概念を組み込むために拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-12-16T18:59:52Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Do Concept Bottleneck Models Respect Localities? [14.77558378567965]
概念に基づく説明可能性法は、人間の理解可能な仲介者を用いて機械学習モデルの説明を生成する。
我々は、概念予測者が「関連」機能を利用して予測を行うかどうかを評価する。
概念予測器は必ずしも明確な概念を区別できないため、実際には多くの概念ベースモデルは局所性を尊重しない。
論文 参考訳(メタデータ) (2024-01-02T16:05:23Z) - Coarse-to-Fine Concept Bottleneck Models [9.910980079138206]
この研究は、アンテホック解釈可能性、特に概念ボトルネックモデル(CBM)をターゲットにしている。
我々のゴールは、人間の理解可能な概念を2段階の粒度で、高度に解釈可能な意思決定プロセスを認めるフレームワークを設計することである。
この枠組みでは、概念情報は全体像と一般的な非構造概念の類似性にのみ依存せず、画像シーンのパッチ固有の領域に存在するより粒度の細かい概念情報を発見・活用するために概念階層の概念を導入している。
論文 参考訳(メタデータ) (2023-10-03T14:57:31Z) - Concept Decomposition for Visual Exploration and Inspiration [53.06983340652571]
本稿では,視覚概念を階層木構造に符号化した異なる視覚的側面に分解する手法を提案する。
我々は、概念分解と生成のために、大きな視覚言語モデルとそのリッチな潜在空間を利用する。
論文 参考訳(メタデータ) (2023-05-29T16:56:56Z) - Analyzing Encoded Concepts in Transformer Language Models [21.76062029833023]
ConceptXは、事前訓練された言語モデル内で学習された表現において、潜伏概念がどのように符号化されるかを分析する。
クラスタリングを使用して、符号化された概念を発見し、人間の定義した概念の大規模なセットと整合してそれらを説明する。
論文 参考訳(メタデータ) (2022-06-27T13:32:10Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - CHAIN: Concept-harmonized Hierarchical Inference Interpretation of Deep
Convolutional Neural Networks [25.112903533844296]
The Concept-harmonized HierArchical Inference (CHAIN) is proposed to interpretation the net decision-making process。
ネット決定を解釈するために、提案手法は、ネット決定を階層的に導出できるCHAIN解釈を示す。
定量的および定性的な実験では、CHAINのインスタンスレベルとクラスレベルでの有効性を示す。
論文 参考訳(メタデータ) (2020-02-05T06:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。