論文の概要: Into the Rabbit Hull: From Task-Relevant Concepts in DINO to Minkowski Geometry
- arxiv url: http://arxiv.org/abs/2510.08638v1
- Date: Wed, 08 Oct 2025 22:42:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.291336
- Title: Into the Rabbit Hull: From Task-Relevant Concepts in DINO to Minkowski Geometry
- Title(参考訳): Rabbit Hullへ:DINOのタスク関連概念からミンコフスキー幾何学へ
- Authors: Thomas Fel, Binxu Wang, Michael A. Lepori, Matthew Kowal, Andrew Lee, Randall Balestriero, Sonia Joseph, Ekdeep S. Lubana, Talia Konkle, Demba Ba, Martin Wattenberg,
- Abstract要約: DINOv2は、オブジェクト、シーン、アクションを認識するために定期的にデプロイされるが、何を認識するのかは分かっていない。
作業ベースラインとして,線形表現仮説(LRH)を採用し,SAEを用いて運用する。
我々は32,000単位の辞書を作成し、この辞書は我々の研究の解釈可能性のバックボーンとして機能する。
- 参考スコア(独自算出の注目度): 31.26429968473424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DINOv2 is routinely deployed to recognize objects, scenes, and actions; yet the nature of what it perceives remains unknown. As a working baseline, we adopt the Linear Representation Hypothesis (LRH) and operationalize it using SAEs, producing a 32,000-unit dictionary that serves as the interpretability backbone of our study, which unfolds in three parts. In the first part, we analyze how different downstream tasks recruit concepts from our learned dictionary, revealing functional specialization: classification exploits "Elsewhere" concepts that fire everywhere except on target objects, implementing learned negations; segmentation relies on boundary detectors forming coherent subspaces; depth estimation draws on three distinct monocular depth cues matching visual neuroscience principles. Following these functional results, we analyze the geometry and statistics of the concepts learned by the SAE. We found that representations are partly dense rather than strictly sparse. The dictionary evolves toward greater coherence and departs from maximally orthogonal ideals (Grassmannian frames). Within an image, tokens occupy a low dimensional, locally connected set persisting after removing position. These signs suggest representations are organized beyond linear sparsity alone. Synthesizing these observations, we propose a refined view: tokens are formed by combining convex mixtures of archetypes (e.g., a rabbit among animals, brown among colors, fluffy among textures). This structure is grounded in Gardenfors' conceptual spaces and in the model's mechanism as multi-head attention produces sums of convex mixtures, defining regions bounded by archetypes. We introduce the Minkowski Representation Hypothesis (MRH) and examine its empirical signatures and implications for interpreting vision-transformer representations.
- Abstract(参考訳): DINOv2は、オブジェクト、シーン、アクションを認識するために定期的にデプロイされるが、何を認識するのかは分かっていない。
作業ベースラインとしてLinear Representation hypothesis(LRH)を採用し,SAEを用いて運用し,3つの部分で展開する研究の解釈可能性のバックボーンとして機能する32,000単位の辞書を作成した。
分類は、対象物以外の至るところで発火する「Elsewhere」概念を利用し、学習否定を実装し、セグメンテーションは、コヒーレントな部分空間を形成する境界検出器に依存する。
これらの機能的な結果に従えば、SAEが学んだ概念の幾何学と統計を解析できる。
表現は厳密にスパースではなく部分的に密度が高いことが判明した。
辞書はよりコヒーレンスに進化し、最大直交イデアル(グラスマンフレーム)から出発する。
画像内では、トークンは位置除去後に持続する低次元の局所連結集合を占有する。
これらの兆候は、表現は線形空間のみに留まらずに組織化されていることを示唆している。
これらの観察を合成し、古型の凸状混合物(例えば、動物間のウサギ、色間の茶色、テクスチャ間のふわふわ)を組み合わせてトークンを形成する。
この構造はGardenforsの概念空間に基礎を置いており、モデル機構においてマルチヘッドアテンションとして、アーチェタイプで有界な領域を定義する凸混合の和を生成する。
我々はMinkowski Representation hypothesis (MRH)を導入し、その経験的シグネチャと視覚変換器表現の解釈の意味について考察する。
関連論文リスト
- Concept-Guided Interpretability via Neural Chunking [64.6429903327095]
ニューラルネットワークは、トレーニングデータの規則性を反映した生の集団活動のパターンを示す。
神経集団レベルで繰り返しチャンクを抽出する3つの方法を提案する。
私たちの研究は、認知原則と自然主義的データの構造の両方を活用する、解釈可能性の新しい方向性を指し示しています。
論文 参考訳(メタデータ) (2025-05-16T13:49:43Z) - Understanding In-context Learning of Addition via Activation Subspaces [73.8295576941241]
そこで本研究では,入力に整数$k$を追加するという真の予測規則を,数ショット学習タスクの構造化されたファミリについて検討する。
次に、次元の減少と分解を通じて、個々の頭部の詳細な分析を行う。
この結果から,前進パスを横断する局所化頭部の低次元部分空間の追跡が,言語モデルにおける微粒化計算構造に対する洞察を与えることを示す。
論文 参考訳(メタデータ) (2025-05-08T11:32:46Z) - The Geometry of Categorical and Hierarchical Concepts in Large Language Models [15.126806053878855]
線形表現仮説の形式化をベクトルとして(例:is_animal)特徴を表現するために拡張する方法を示す。
形式化を用いて、概念の階層構造とそれらの表現の幾何学との関係を証明する。
我々はこれらの理論結果をGemmaとLLaMA-3大言語モデルで検証し、WordNetのデータを用いて900以上の階層的な概念の表現を推定する。
論文 参考訳(メタデータ) (2024-06-03T16:34:01Z) - Explaining Explainability: Recommendations for Effective Use of Concept Activation Vectors [35.37586279472797]
概念ベクトル活性化(Concept Vector Activations, CAV)は、概念実証者のプローブデータセットを用いて学習される。
CAVの3つの特性として,層間不整合,(2)他の概念との絡み合い,(3)空間依存性について検討する。
これらの特性の存在を検出するためのツールを導入し、各特性がどのように誤解を招くのかを洞察し、その影響を軽減するためのレコメンデーションを提供する。
論文 参考訳(メタデータ) (2024-04-04T17:46:20Z) - On convex decision regions in deep network representations [1.06378109904813]
機械学習型潜在空間における概念領域の凸性の概念について検討する。
凸性は基本的な再パラメータ化に対して堅牢であることを示す。
近似凸性は、複数のアプリケーション領域における神経表現において広く見られる。
論文 参考訳(メタデータ) (2023-05-26T10:33:03Z) - Zero-shot point cloud segmentation by transferring geometric primitives [68.18710039217336]
ゼロショットポイントクラウドセマンティックセマンティックセマンティックセマンティクスについて検討し、そこではネットワークが見えないオブジェクトに対してトレーニングされ、見えないオブジェクトをセマンティクスできる。
本研究では,視覚的および視覚的カテゴリーのオブジェクトで共有される幾何学的プリミティブを学習し,言語と学習された幾何学的プリミティブとの微粒なアライメントを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-18T15:06:54Z) - 3D Concept Grounding on Neural Fields [99.33215488324238]
既存の視覚的推論手法は、典型的には、2Dセグメンテーションマスクを抽出するために教師付き手法を用いる。
人間は、画像の3D表現の基盤となる概念を基盤にすることができる。
我々は,ニューラルネットワークの連続的,微分可能な性質を利用して概念をセグメント化し,学習することを提案する。
論文 参考訳(メタデータ) (2022-07-13T17:59:33Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。