論文の概要: SPARC: Concept-Aligned Sparse Autoencoders for Cross-Model and Cross-Modal Interpretability
- arxiv url: http://arxiv.org/abs/2507.06265v1
- Date: Mon, 07 Jul 2025 22:29:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.331111
- Title: SPARC: Concept-Aligned Sparse Autoencoders for Cross-Model and Cross-Modal Interpretability
- Title(参考訳): SPARC: クロスモデルとクロスモーダル解釈のためのコンセプトアラインなスパースオートエンコーダ
- Authors: Ali Nasiri-Sarvi, Hassan Rivaz, Mahdi S. Hosseini,
- Abstract要約: Sparse Autoencoders for Aligned Representation of Concepts)は,多種多様なアーキテクチャで共有される単一で統一された潜在空間を学習する新しいフレームワークである。
Open Imagesでは、概念のアライメントが劇的に改善され、ジャカードの類似性が0.80に到達した。
- 参考スコア(独自算出の注目度): 9.90112908284836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how different AI models encode the same high-level concepts, such as objects or attributes, remains challenging because each model typically produces its own isolated representation. Existing interpretability methods like Sparse Autoencoders (SAEs) produce latent concepts individually for each model, resulting in incompatible concept spaces and limiting cross-model interpretability. To address this, we introduce SPARC (Sparse Autoencoders for Aligned Representation of Concepts), a new framework that learns a single, unified latent space shared across diverse architectures and modalities (e.g., vision models like DINO, and multimodal models like CLIP). SPARC's alignment is enforced through two key innovations: (1) a Global TopK sparsity mechanism, ensuring all input streams activate identical latent dimensions for a given concept; and (2) a Cross-Reconstruction Loss, which explicitly encourages semantic consistency between models. On Open Images, SPARC dramatically improves concept alignment, achieving a Jaccard similarity of 0.80, more than tripling the alignment compared to previous methods. SPARC creates a shared sparse latent space where individual dimensions often correspond to similar high-level concepts across models and modalities, enabling direct comparison of how different architectures represent identical concepts without requiring manual alignment or model-specific analysis. As a consequence of this aligned representation, SPARC also enables practical applications such as text-guided spatial localization in vision-only models and cross-model/cross-modal retrieval. Code and models are available at https://github.com/AtlasAnalyticsLab/SPARC.
- Abstract(参考訳): 異なるAIモデルがオブジェクトや属性などの同じ高レベルな概念をエンコードする方法を理解することは、通常、各モデルが独自の表現を生成するため、依然として困難である。
Sparse Autoencoders (SAEs) のような既存の解釈可能性法は、各モデルごとに遅延概念を生成し、互換性のない概念空間とクロスモデル解釈可能性を制限する。
これを解決するために、SPARC(Sparse Autoencoders for Aligned Representation of Concepts)という、さまざまなアーキテクチャやモダリティ(DINOのようなビジョンモデル、CLIPのようなマルチモーダルモデルなど)で共有される単一の、統一された潜在空間を学習する新しいフレームワークを紹介します。
SPARCのアライメントは,(1)グローバルなTopKスペーサビリティ機構,(2)モデル間のセマンティック一貫性を明示的に促進するクロスコンストラクションロス,の2つの重要なイノベーションによって実現されている。
Open Imagesでは、SPARCは概念のアライメントを劇的に改善し、Jaccardの類似性は0.80と、従来の方法に比べて3倍に向上した。
SPARCは、個々の次元がモデルやモダリティにまたがる同様の高レベルな概念によく対応し、手動のアライメントやモデル固有の分析を必要とせずに、異なるアーキテクチャが同じ概念をどのように表現するかを直接比較できる共有スパース潜在空間を作成する。
この整合表現の結果として、SPARCは、視覚のみのモデルにおけるテキスト誘導空間ローカライゼーションや、クロスモデル/クロスモーダル検索などの実用的な応用を可能にした。
コードとモデルはhttps://github.com/AtlasAnalyticsLab/SPARCで入手できる。
関連論文リスト
- Escaping Plato's Cave: JAM for Aligning Independently Trained Vision and Language Models [27.091366887354063]
単一モードモデルの潜在表現に対して、モダリティ固有のオートエンコーダを訓練するフレームワークを導入する。
類推により、このフレームワークはプラトンの洞窟から逃れる方法として機能し、結合しない入力から共有構造の出現を可能にする。
論文 参考訳(メタデータ) (2025-07-01T21:43:50Z) - Cross-architecture universal feature coding via distribution alignment [88.73189953617594]
クロスアーキテクチャユニバーサル特徴符号化(CAUFC)という新しい研究課題を導入する。
まず,CNN と Transformer が一貫した2次元トークン形式に特徴付けるフォーマットアライメント手法を設計し,また,トランケーションと正規化によって統計分布を調和させる特徴値アライメント手法を提案する。
本稿では,CAUFCを最初に研究する試みとして,画像分類作業における手法の評価を行い,本手法がアーキテクチャ固有のベースラインに比べて高いレート精度のトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2025-06-15T06:14:02Z) - Structural Similarity-Inspired Unfolding for Lightweight Image Super-Resolution [88.20464308588889]
効率的な画像SRのための構造類似インスパイアド・アンフォールディング(SSIU)法を提案する。
この方法は、構造的類似性に制約されたSR最適化関数の展開によって設計される。
我々のモデルは現在の最先端モデルより優れており、パラメータ数が低く、メモリ消費が減少している。
論文 参考訳(メタデータ) (2025-06-13T14:29:40Z) - Interpreting the linear structure of vision-language model embedding spaces [12.846590038965774]
我々は、4つの視覚言語モデルの埋め込み空間上でスパースオートエンコーダ(SAE)を訓練・リリースする。
SAEは実際の埋め込みを再構築するのに優れており、また最もスパース性を維持することができる。
また、SAEによって抽出される鍵となる活性化概念は、実行中において著しく安定であることを示す。
論文 参考訳(メタデータ) (2025-04-16T01:40:06Z) - Model Assembly Learning with Heterogeneous Layer Weight Merging [57.8462476398611]
モデル統合のための新しいパラダイムであるモデルアセンブリ学習(MAL)を紹介する。
MALは、様々なモデルのパラメータをオープンエンドモデル動物園に統合し、ベースモデルの能力を高める。
論文 参考訳(メタデータ) (2025-03-27T16:21:53Z) - Universal Sparse Autoencoders: Interpretable Cross-Model Concept Alignment [6.614005142754584]
ユニバーサルスパースオートエンコーダ(英: Universal Sparse Autoencoders、USAEs)は、複数のディープニューラルネットワークにまたがる解釈可能な概念を明らかにするためのフレームワークである。
USAEは、複数のモデルの内部アクティベーションを一度に再構築し解釈できる普遍的な概念空間を学ぶ。
論文 参考訳(メタデータ) (2025-02-06T02:06:16Z) - Universal Information Extraction as Unified Semantic Matching [54.19974454019611]
情報抽出を,異なるタスクやスキーマで共有される構造化と概念化という,2つの能力に分割する。
このパラダイムに基づいて、統一意味マッチングフレームワークを用いて様々なIEタスクを普遍的にモデル化することを提案する。
このように、USMはスキーマと入力テキストを共同でエンコードし、サブ構造を一様に並列に抽出し、必要に応じてターゲット構造を制御できる。
論文 参考訳(メタデータ) (2023-01-09T11:51:31Z) - Multimodal hierarchical Variational AutoEncoders with Factor Analysis latent space [45.418113011182186]
本研究では,変分オートエンコーダ(VAE)と因子解析潜時空間(FA-VAE)を組み合わせることで,制約に対処する新しい手法を提案する。
FA-VAE法は複数のVAEを用いて連続潜伏空間における各異種データビューのプライベート表現を学習する。
論文 参考訳(メタデータ) (2022-07-19T10:46:02Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。