論文の概要: Bridging Functional and Representational Similarity via Usable Information
- arxiv url: http://arxiv.org/abs/2601.21568v1
- Date: Thu, 29 Jan 2026 11:30:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.768909
- Title: Bridging Functional and Representational Similarity via Usable Information
- Title(参考訳): 使用可能な情報によるブリッジ機能と表現的類似性
- Authors: Antonio Almudévar, Alfonso Ortega,
- Abstract要約: テクスチャブルな情報のレンズを通して表現間の類似性を定量化する統一的な枠組みを提案する。
まず,機能的類似性に対処し,縫合性能と条件付き相互情報との正式なリンクを確立する。
第2に、表現的類似性について、特定の制約の下で使用可能な情報の推定器として、再構成に基づくメトリクスと標準ツールが機能することを証明する。
- 参考スコア(独自算出の注目度): 3.9189279162842854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a unified framework for quantifying the similarity between representations through the lens of \textit{usable information}, offering a rigorous theoretical and empirical synthesis across three key dimensions. First, addressing functional similarity, we establish a formal link between stitching performance and conditional mutual information. We further reveal that stitching is inherently asymmetric, demonstrating that robust functional comparison necessitates a bidirectional analysis rather than a unidirectional mapping. Second, concerning representational similarity, we prove that reconstruction-based metrics and standard tools (e.g., CKA, RSA) act as estimators of usable information under specific constraints. Crucially, we show that similarity is relative to the capacity of the predictive family: representations that appear distinct to a rigid observer may be identical to a more expressive one. Third, we demonstrate that representational similarity is sufficient but not necessary for functional similarity. We unify these concepts through a task-granularity hierarchy: similarity on a complex task guarantees similarity on any coarser derivative, establishing representational similarity as the limit of maximum granularity: input reconstruction.
- Abstract(参考訳): 本稿では,3つの重要な次元にまたがる厳密な理論的および経験的合成を提供する,‘textit{usable information} のレンズによる表現間の類似性を定量化する統一的な枠組みを提案する。
まず,機能的類似性に対処し,縫合性能と条件付き相互情報との正式なリンクを確立する。
さらに、縫合は本質的に非対称であり、ロバストな機能比較が一方向マッピングではなく双方向解析を必要とすることを示す。
第2に、表現的類似性に関して、再構成に基づくメトリクスと標準ツール(例えば、CKA、RSA)が、特定の制約の下で使用可能な情報の推定器として機能することを証明する。
決定的に、類似性は予測ファミリーの能力と相対的であることを示す: 厳密なオブザーバと異なるように見える表現は、より表現力のあるものと同じである。
第三に、表現的類似性は十分であるが、機能的類似性には必要ないことを示す。
複素タスク上の類似性は、どんな粗い微分に対しても類似性を保証するので、最大粒度の極限として表現的類似性を確立する:入力再構成。
関連論文リスト
- The Triangle of Similarity: A Multi-Faceted Framework for Comparing Neural Network Representations [5.415604247164019]
3つの相補的な視点を組み合わせたフレームワークであるTriangle of similarityを提案する。
アーキテクチャファミリは、表現的類似性の主要な決定要因であり、異なるクラスタを形成します。
いくつかのモデルペアでは、プルーニングは表現を正規化し、共有計算コアを公開する。
論文 参考訳(メタデータ) (2026-01-23T12:15:43Z) - Relational Visual Similarity [75.39827145344957]
リレーショナルな類似性は、認知科学者によって、人間と他の種を区別するものとして論じられる。
現在広く使われている視覚的類似度指標はすべて、知覚的属性類似性のみに焦点を当てている。
我々の研究は、リレーショナルな類似性は多くの実世界のアプリケーションを持っているが、既存の画像類似性モデルはそれを捉えていないことを示している。
論文 参考訳(メタデータ) (2025-12-08T18:59:56Z) - Objective drives the consistency of representational similarity across datasets [19.99817888941361]
本稿では,モデル間の表現的類似度が,表現を構成するために使用される刺激の集合によってどのように変化するかを測定するための体系的手法を提案する。
自己教師付き視覚モデルは、相対的なペアの類似性が、あるデータセットから別のデータセットへより良く一般化する表現を学ぶ。
我々の研究は、データセット間のモデル表現の類似性を分析し、それらの類似性とタスクの振る舞いの違いを関連付けるためのフレームワークを提供する。
論文 参考訳(メタデータ) (2024-11-08T13:35:45Z) - GSSF: Generalized Structural Sparse Function for Deep Cross-modal Metric Learning [51.677086019209554]
ペアワイド類似性学習のためのモダリティ間の強力な関係を捕捉する汎用構造スパースを提案する。
距離メートル法は、対角線とブロック対角線の2つの形式を微妙にカプセル化する。
クロスモーダルと2つの余分なユニモーダル検索タスクの実験は、その優位性と柔軟性を検証した。
論文 参考訳(メタデータ) (2024-10-20T03:45:50Z) - Weighted Point Set Embedding for Multimodal Contrastive Learning Toward Optimal Similarity Metric [44.95433989446052]
提案手法の利点は,CLIPの相対的損失に対する新たな理解を通じて示される。
重み付き点集合に基づく提案した類似性は、常に最適類似性を達成することを示す。
論文 参考訳(メタデータ) (2024-04-30T03:15:04Z) - Interpretable Measures of Conceptual Similarity by
Complexity-Constrained Descriptive Auto-Encoding [112.0878081944858]
画像間の類似度を定量化することは、画像ベースの機械学習にとって重要な著作権問題である。
我々は,高次関係を捉えた画像間での「概念的類似性」の概念を定義し,計算することを目指している。
2つの非常に異種な画像は、その記述の早い段階で識別できるが、概念的に異種な画像は、より詳細を区別する必要がある。
論文 参考訳(メタデータ) (2024-02-14T03:31:17Z) - Attributable Visual Similarity Learning [90.69718495533144]
本稿では、画像間のより正確で説明可能な類似度測定のための帰属的視覚類似度学習(AVSL)フレームワークを提案する。
人間の意味的類似性認知に動機づけられた2つの画像とグラフとの類似性を表現するために,一般化された類似性学習パラダイムを提案する。
CUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、既存の深い類似性学習方法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2022-03-28T17:35:31Z) - Generalized quantum similarity learning [0.0]
我々は、同じ次元を持たないデータ間のタスク依存(a)対称類似性を学習するための量子ネットワーク(GQSim)を提案する。
この手法を用いて導出された類似度尺度が$(epsilon,gamma,tau)$-goodであることを示す。
論文 参考訳(メタデータ) (2022-01-07T03:28:19Z) - Instance Similarity Learning for Unsupervised Feature Representation [83.31011038813459]
教師なし特徴表現のための例類似性学習(ISL)手法を提案する。
我々はGAN(Generative Adversarial Networks)を用いて、基礎となる特徴多様体をマイニングする。
画像分類実験は, 最先端手法と比較して, 提案手法の優位性を示した。
論文 参考訳(メタデータ) (2021-08-05T16:42:06Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。