論文の概要: Revisiting the Platonic Representation Hypothesis: An Aristotelian View
- arxiv url: http://arxiv.org/abs/2602.14486v1
- Date: Mon, 16 Feb 2026 06:01:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.16581
- Title: Revisiting the Platonic Representation Hypothesis: An Aristotelian View
- Title(参考訳): プラトン表現仮説の再検討:アリストテレス的視点
- Authors: Fabian Gröger, Shuo Wen, Maria Brbić,
- Abstract要約: 表現的類似度を測定するために使用される既存のメトリクスは、ネットワークスケールで構築されていることを示す。
本稿では,任意の表現類似度尺度を統計的保証付き校正スコアに変換する置換に基づくヌル校正フレームワークを提案する。
本稿では,アリストテレス表現仮説(Aristotelian Representation hypothesis)を提案する。
- 参考スコア(独自算出の注目度): 3.647057737530591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Platonic Representation Hypothesis suggests that representations from neural networks are converging to a common statistical model of reality. We show that the existing metrics used to measure representational similarity are confounded by network scale: increasing model depth or width can systematically inflate representational similarity scores. To correct these effects, we introduce a permutation-based null-calibration framework that transforms any representational similarity metric into a calibrated score with statistical guarantees. We revisit the Platonic Representation Hypothesis with our calibration framework, which reveals a nuanced picture: the apparent convergence reported by global spectral measures largely disappears after calibration, while local neighborhood similarity, but not local distances, retains significant agreement across different modalities. Based on these findings, we propose the Aristotelian Representation Hypothesis: representations in neural networks are converging to shared local neighborhood relationships.
- Abstract(参考訳): プラトン表現仮説(Platonic Representation hypothesis)は、ニューラルネットワークからの表現が現実の共通の統計モデルに収束していることを示唆している。
モデル深度や幅の増大は、表現類似度スコアを体系的にインフレーションすることができる。
これらの効果を補正するために,任意の表現類似度指標を統計的保証付き校正スコアに変換する置換に基づくヌル校正フレームワークを導入する。
グローバルスペクトル測度によって報告される明らかな収束は、キャリブレーション後にほとんど消失するが、局所的な近辺の類似性は、局所的な距離ではなく、局所的な類似性は、異なるモダリティ間で有意な一致を維持している。
これらの知見に基づき,ニューラルネットワークにおける表現が局所的関係の共有に収束しているというアリストテレス表現仮説を提案する。
関連論文リスト
- Barycentric alignment for instance-level comparison of neural representations [2.1920579994942164]
我々は、多くのモデルにまたがる普遍的な埋め込み空間を構築するために、ニュアンス対称性を引用するバリ中心アライメントフレームワークを導入する。
視覚および言語モデルファミリ間での表現収束とばらつきを予測できる体系的な入力特性を同定する。
また、同一のバリ中心アライメントフレームワークを純粋に非モーダル視覚と言語モデルに適用し、共有空間へのポストホックアライメントが画像テキストの類似度スコアを得ることを示す。
論文 参考訳(メタデータ) (2026-02-09T21:49:44Z) - Continuous Representation Methods, Theories, and Applications: An Overview and Perspectives [55.22101595974193]
近年,実世界のデータ固有の構造を特徴付ける新しいパラダイムとして,連続表現法が登場している。
本総説では, 基礎関数表現, 統計モデル, テンソル関数分解, 暗黙的神経表現などの連続表現法設計, (ii) 近似誤差解析, 収束特性, 暗黙的正規化などの連続表現の理論的基礎, (iii) コンピュータビジョン, グラフィックス, バイオインフォマティクス, リモートセンシングなどの連続表現の現実的応用について述べる。
論文 参考訳(メタデータ) (2025-05-21T07:50:19Z) - The Platonic Representation Hypothesis [35.16414255187554]
AIモデル、特にディープネットワークにおける表現は収束していると我々は主張する。
ビジョンモデルと言語モデルが大きくなればなるほど、データポイント間の距離はますます似たようなものになる。
我々は、この収束が、プラトンの理想的現実の概念に似た、共有された統計的な現実モデルに向かっていると仮定する。
論文 参考訳(メタデータ) (2024-05-13T17:58:30Z) - Learning for Transductive Threshold Calibration in Open-World Recognition [83.35320675679122]
グラフニューラルネットワークを用いた高剛性と適応性を有するトランスダクティブしきい値キャリブレーション法であるOpenGCNを導入する。
オープンワールドの視覚認識ベンチマークにおける実験は、オープンワールドのしきい値校正のための既存のポストホック校正方法よりもOpenGCNの方が優れていることを検証する。
論文 参考訳(メタデータ) (2023-05-19T23:52:48Z) - Counting Like Human: Anthropoid Crowd Counting on Modeling the
Similarity of Objects [92.80955339180119]
メインストリームの群衆計数法は 密度マップを補強して 計数結果を得るために統合する。
これに触発された我々は,合理的かつ人為的な集団カウントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-02T07:00:53Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Image Synthesis via Semantic Composition [74.68191130898805]
本稿では,その意味的レイアウトに基づいて現実的なイメージを合成する新しい手法を提案する。
類似した外観を持つ物体に対して、類似した表現を共有するという仮説が立てられている。
本手法は, 空間的変化と関連表現の両方を生じる, 外観相関による領域間の依存関係を確立する。
論文 参考訳(メタデータ) (2021-09-15T02:26:07Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。