論文の概要: REWA: A General Theory of Witness-Based Similarity
- arxiv url: http://arxiv.org/abs/2511.19998v2
- Date: Fri, 28 Nov 2025 07:09:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 15:47:02.734427
- Title: REWA: A General Theory of Witness-Based Similarity
- Title(参考訳): REWA: 知性に基づく類似性に関する一般的な理論
- Authors: Nikit Phadke,
- Abstract要約: 我々は、すべての離散的、連続的、代数的、学習的類似性を仮定する類似性保存符号化のための普遍的な枠組みを提案する。
この統合により、ブルームフィルタ、Locality Sensitive Hashing (LSH)、Count-Minのスケッチ、ランダムフーリエ機能、Transformerのアテンションカーネルは同じメカニズムのインスタンスであることが分かる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a universal framework for similarity-preserving encodings that subsumes all discrete, continuous, algebraic, and learned similarity methods under a single theoretical umbrella. By formulating similarity as functional witness projection over monoids, we prove that \[ O\!\left(\frac{1}{Δ^{2}}\log N\right) \] encoding complexity with ranking preservation holds for arbitrary algebraic structures. This unification reveals that Bloom filters, Locality Sensitive Hashing (LSH), Count-Min sketches, Random Fourier Features, and Transformer attention kernels are instances of the same underlying mechanism. We provide complete proofs with explicit constants under 4-wise independent hashing, handle heavy-tailed witnesses via normalization and clipping, and prove \[ O(\log N) \] complexity for all major similarity methods from 1970-2024. We give explicit constructions for Boolean, Natural, Real, Tropical, and Product monoids, prove tight concentration bounds, and demonstrate compositional properties enabling multi-primitive similarity systems.
- Abstract(参考訳): 本稿では, 離散的, 連続的, 代数的, 学習的類似性手法を1つの理論的傘の下で仮定する類似性保存符号化のための普遍的枠組みを提案する。
類似性をモノイド上の関数的目撃射影として定式化することにより、 \[O\!
階数保存を伴う複雑性を符号化する \left(\frac{1}{Δ^{2}}\log N\right) \] は任意の代数構造に対して成り立つ。
この統合により、ブルームフィルタ、Locality Sensitive Hashing (LSH)、Count-Minのスケッチ、ランダムフーリエ機能、Transformerのアテンションカーネルは同じメカニズムのインスタンスであることが分かる。
我々は、4つの独立ハッシュの下で明示的な定数を持つ完全証明を提供し、正規化とクリッピングにより重尾の証人を扱い、1970年から2024年までのすべての主要な類似性手法に対して \[O(\log N) \] の複雑性を証明した。
ブール, 自然, 実, 熱帯, 製品モノイドに対して明示的な構成を行い, 厳密な濃度境界を証明し, 多原始的類似性システムを実現する構成特性を実証する。
関連論文リスト
- Similarity Field Theory: A Mathematical Framework for Intelligence [0.0]
本稿では、実体間の類似性値の原則とその進化を定式化する数学的枠組みである「類似性場理論」を紹介する。
高いレベルでは、このフレームワークは、類似性に関する幾何学的な問題として、知性と解釈可能性を再設計する。
我々は、2つの定理を証明している: (i)非対称性は相互包含をブロックし、 (ii)安定性はアンカー座標または準位集合内の最終的な閉じ込めを必要とする。
論文 参考訳(メタデータ) (2025-09-21T22:34:00Z) - Structural Entropy Guided Probabilistic Coding [52.01765333755793]
構造エントロピー誘導型確率的符号化モデルSEPCを提案する。
我々は、構造エントロピー正規化損失を提案することにより、潜在変数間の関係を最適化に組み込む。
分類タスクと回帰タスクの両方を含む12の自然言語理解タスクに対する実験結果は、SEPCの優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-12T00:37:53Z) - Interaction Asymmetry: A General Principle for Learning Composable Abstractions [27.749478197803256]
相互作用非対称性は、アンタングル化と合成一般化の両方を可能にすることを示す。
本稿では, フレキシブルトランスフォーマーをベースとしたVAEを用いて, デコーダの注意重みに対する新しい正規化器を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:33:26Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Unsupervised Learning of Equivariant Structure from Sequences [30.974508897223124]
我々は,少なくとも3つの長さの時系列から対称性を学習するための教師なしのフレームワークを提案する。
当社のフレームワークでは,データセットの非絡み合い構造が副産物として自然に現れることを実証します。
論文 参考訳(メタデータ) (2022-10-12T07:29:18Z) - Generating Compressed Combinatory Proof Structures -- An Approach to
Automated First-Order Theorem Proving [0.0]
ここでは、自動一階述語証明に対する「証明構造としての組合せ項」のアプローチを紹介する。
このアプローチは、凝縮した分枝に根付いた証明構造の項ビューと接続法に基づいて構築される。
論文 参考訳(メタデータ) (2022-09-26T11:23:17Z) - Self-Supervised Learning Disentangled Group Representation as Feature [82.07737719232972]
既存の自己監督学習(SSL)は、回転や着色などの単純な拡張機能のみを分解することを示す。
反復的分割に基づく不変リスク最小化(IP-IRM)を提案する。
我々は、IP-IRMが完全に不整合表現に収束し、様々なベンチマークでその効果を示すことを証明した。
論文 参考訳(メタデータ) (2021-10-28T16:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。