論文の概要: Vector Quantized Latent Concepts: A Scalable Alternative to Clustering-Based Concept Discovery
- arxiv url: http://arxiv.org/abs/2602.02726v1
- Date: Mon, 02 Feb 2026 19:43:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.04215
- Title: Vector Quantized Latent Concepts: A Scalable Alternative to Clustering-Based Concept Discovery
- Title(参考訳): Vector Quantized Latent Concepts: クラスタリングに基づく概念発見のスケーラブルな代替手段
- Authors: Xuemin Yu, Ankur Garg, Samira Ebrahimi Kahou, Hassan Sajjad,
- Abstract要約: 本稿では,ベクトル量子化可変オートエンコーダ(VQ-VAE)アーキテクチャ上に構築されたフレームワークであるベクトル量子化潜在概念(VQLC)を提案する。
VQLCは、人間の理解可能な説明に匹敵する品質を維持しながら、スケーラビリティを向上させる。
- 参考スコア(独自算出の注目度): 10.6686798314267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning models encode rich semantic information in their hidden representations. However, it remains challenging to understand which parts of this information models actually rely on when making predictions. A promising line of post-hoc concept-based explanation methods relies on clustering token representations. However, commonly used approaches such as hierarchical clustering are computationally infeasible for large-scale datasets, and K-Means often yields shallow or frequency-dominated clusters. We propose the vector quantized latent concept (VQLC) method, a framework built upon the vector quantized-variational autoencoder (VQ-VAE) architecture that learns a discrete codebook mapping continuous representations to concept vectors. We perform thorough evaluations and show that VQLC improves scalability while maintaining comparable quality of human-understandable explanations.
- Abstract(参考訳): ディープラーニングモデルは、その隠された表現にリッチなセマンティック情報をエンコードする。
しかしながら、これらの情報モデルのどの部分が予測を行う際に実際に依存しているかを理解することは依然として困難である。
ポストホックの概念に基づく説明手法の有望な行はクラスタリングトークン表現に依存している。
しかし、階層的クラスタリングのような一般的なアプローチは大規模データセットでは計算不可能であり、K-Meansは浅いクラスタや周波数で支配されるクラスタを生成することが多い。
本稿では、連続表現を概念ベクトルにマッピングする離散コードブックを学習するベクトル量子化変分自動エンコーダ(VQ-VAE)アーキテクチャ上に構築されたフレームワークであるベクトル量子化潜在概念(VQLC)を提案する。
我々は徹底的な評価を行い、VQLCが人間の理解可能な説明の質を同等に保ちながらスケーラビリティを向上させることを示す。
関連論文リスト
- Cross-Layer Discrete Concept Discovery for Interpreting Language Models [13.842670153893977]
クロス層VQ-VAEは、ベクトル量子化を使用して層間の表現をマッピングするフレームワークである。
本手法は,量子化中のトップk温度に基づくサンプリングとEMAコードブック更新を一意に組み合わせる。
論文 参考訳(メタデータ) (2025-06-24T22:43:36Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Local Concept Embeddings for Analysis of Concept Distributions in Vision DNN Feature Spaces [1.0923877073891446]
学習した潜伏表現に対する洞察は、コンピュータビジョンタスクのディープニューラルネットワーク(DNN)を検証する上で不可欠である。
本稿では,学習した概念分布の探索を可能にする新しいローカル概念分析フレームワークを提案する。
文脈感度にもかかわらず,提案手法のセグメンテーション性能はグローバルベースラインと競合する。
論文 参考訳(メタデータ) (2023-11-24T12:22:00Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。