論文の概要: Digging Deeper: Learning Multi-Level Concept Hierarchies
- arxiv url: http://arxiv.org/abs/2603.10084v1
- Date: Tue, 10 Mar 2026 12:48:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.624659
- Title: Digging Deeper: Learning Multi-Level Concept Hierarchies
- Title(参考訳): Digging Deeper: マルチレベルの概念階層を学ぶ
- Authors: Oscar Hill, Mateo Espinosa Zarlenga, Mateja Jamnik,
- Abstract要約: 概念に基づくモデルは一般的に、人間の理解可能な概念で予測を説明するために徹底的なアノテーションに依存している。
マルチレベル概念分割(MLCS)を導入し,トップレベルの監督のみから多レベル概念階層を発見する。
また、発見された階層を表現し、複数の抽象化レベルでの介入を可能にするアーキテクチャであるDeep-HiCEMについても紹介する。
- 参考スコア(独自算出の注目度): 23.16720677779406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although concept-based models promise interpretability by explaining predictions with human-understandable concepts, they typically rely on exhaustive annotations and treat concepts as flat and independent. To circumvent this, recent work has introduced Hierarchical Concept Embedding Models (HiCEMs) to explicitly model concept relationships, and Concept Splitting to discover sub-concepts using only coarse annotations. However, both HiCEMs and Concept Splitting are restricted to shallow hierarchies. We overcome this limitation with Multi-Level Concept Splitting (MLCS), which discovers multi-level concept hierarchies from only top-level supervision, and Deep-HiCEMs, an architecture that represents these discovered hierarchies and enables interventions at multiple levels of abstraction. Experiments across multiple datasets show that MLCS discovers human-interpretable concepts absent during training and that Deep-HiCEMs maintain high accuracy while supporting test-time concept interventions that can improve task performance.
- Abstract(参考訳): 概念に基づくモデルは、人間の理解可能な概念で予測を説明することによって解釈可能性を約束するが、一般的には徹底的な注釈に頼り、概念を平らで独立したものとして扱う。
これを回避するため、近年の研究では、概念関係を明示的にモデル化するための階層的概念埋め込みモデル(HiCEM)や、粗いアノテーションのみを使用してサブ概念を発見するための概念分割を導入している。
しかし、HiCEMとConcept Splittingはいずれも浅い階層に制限されている。
マルチレベル概念分割(MLCS)によるこの制限を克服し、トップレベルの監視のみからマルチレベル概念階層を発見し、Deep-HiCEMはこれらの階層を表現し、複数の抽象化レベルでの介入を可能にするアーキテクチャである。
複数のデータセットにわたる実験によると、MLCSはトレーニング中に人間の解釈可能な概念が存在しないことを発見し、Deep-HiCEMはタスクのパフォーマンスを向上させるテスト時の概念介入をサポートしながら高い精度を維持する。
関連論文リスト
- Hierarchical Concept-based Interpretable Models [23.16720677779406]
概念埋め込みモデル(CEM)は、入力を人間の解釈可能な概念表現にマッピングし、タスクを予測できる。
しかし、CEMは概念間の関係を表現できず、トレーニング中に異なる粒度で概念アノテーションを必要とする。
階層的概念埋め込みモデル(HiCEM)は,階層的構造を通じて概念関係を明示的にモデル化するCEMの新しいファミリーである。
論文 参考訳(メタデータ) (2026-02-27T11:49:56Z) - Insight: Interpretable Semantic Hierarchies in Vision-Language Encoders [52.94006363830628]
言語対応の視覚基盤モデルは、下流の様々なタスクで強く機能する。
近年の研究では、これらの表現を人間の解釈可能な概念に分解するが、空間的接地が乏しく、画像分類に限られている。
入力画像に人間が解釈可能で空間的に接地した、きめ細かい概念を提供する言語対応概念基盤モデルであるInsightを提案する。
論文 参考訳(メタデータ) (2026-01-20T09:57:26Z) - FaCT: Faithful Concept Traces for Explaining Neural Network Decisions [56.796533084868884]
ディープネットワークは、幅広いタスクで顕著なパフォーマンスを示しているが、それらの機能に関するグローバルな概念レベルの理解は、依然として重要な課題である。
本稿では,概念に基づく説明の忠実さを強調し,モデル独立な機械的概念説明を用いた新しいモデルを提案する。
私たちの概念はクラス間で共有され、あらゆるレイヤから、ロジットへの貢献と入力-視覚化を忠実にトレースすることができます。
論文 参考訳(メタデータ) (2025-10-29T13:35:46Z) - Concept Layers: Enhancing Interpretability and Intervenability via LLM Conceptualization [2.163881720692685]
本稿では,概念層をアーキテクチャに組み込むことにより,解釈可能性とインターベンタビリティを既存モデルに組み込む新しい手法を提案する。
我々のアプローチは、モデルの内部ベクトル表現を、再構成してモデルにフィードバックする前に、概念的で説明可能なベクトル空間に投影する。
複数のタスクにまたがるCLを評価し、本来のモデルの性能と合意を維持しつつ、意味のある介入を可能にしていることを示す。
論文 参考訳(メタデータ) (2025-02-19T11:10:19Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Exploring Concept Depth: How Large Language Models Acquire Knowledge and Concept at Different Layers? [57.04803703952721]
大規模言語モデル(LLM)は、幅広いタスクで顕著なパフォーマンスを示している。
しかし、これらのモデルが様々な複雑さのタスクを符号化するメカニズムは、いまだに理解されていない。
概念深さ」の概念を導入し、より複雑な概念が一般的により深い層で得られることを示唆する。
論文 参考訳(メタデータ) (2024-04-10T14:56:40Z) - Coarse-to-Fine Concept Bottleneck Models [9.910980079138206]
この研究は、アンテホック解釈可能性、特に概念ボトルネックモデル(CBM)をターゲットにしている。
我々のゴールは、人間の理解可能な概念を2段階の粒度で、高度に解釈可能な意思決定プロセスを認めるフレームワークを設計することである。
この枠組みでは、概念情報は全体像と一般的な非構造概念の類似性にのみ依存せず、画像シーンのパッチ固有の領域に存在するより粒度の細かい概念情報を発見・活用するために概念階層の概念を導入している。
論文 参考訳(メタデータ) (2023-10-03T14:57:31Z) - Sparse Subspace Clustering for Concept Discovery (SSCCD) [1.7319807100654885]
概念は高いレベルの人間の理解の鍵となる構成要素である。
局所帰属法では、サンプル間のコヒーレントモデル挙動を特定できない。
隠れた特徴層の低次元部分空間として、新しい概念の定義を提唱した。
論文 参考訳(メタデータ) (2022-03-11T16:15:48Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。