論文の概要: Higher order co-occurrence tensors for hypergraphs via face-splitting
- arxiv url: http://arxiv.org/abs/2002.06285v1
- Date: Sat, 15 Feb 2020 00:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 22:53:40.595681
- Title: Higher order co-occurrence tensors for hypergraphs via face-splitting
- Title(参考訳): 顔分割によるハイパーグラフの高次共起テンソル
- Authors: Bryan Bischof
- Abstract要約: ペアの共起行列を計算するための一般的なトリックは、入射行列とその変換の積である。
ファススプリッティング積 (face-splitting product) またはハトリ・ラオ積 (Khatri-Rao product) を用いて、より高い共起物に対するアナログ変換を示す。
これらの高次共起は、他のトークンの会社におけるトークンの共通性を符号化し、よく研究される相互情報を一般化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A popular trick for computing a pairwise co-occurrence matrix is the product
of an incidence matrix and its transpose. We present an analog for higher order
tuple co-occurrences using the face-splitting product, or alternately known as
the transpose Khatri-Rao product. These higher order co-occurrences encode the
commonality of tokens in the company of other tokens, and thus generalize the
mutual information commonly studied. We demonstrate this tensor's use via a
popular NLP model, and hypergraph models of similarity.
- Abstract(参考訳): ペアワイズ共起行列を計算するための一般的なトリックは、入射行列とその転置行列の積である。
本稿では, 顔分割生成物を用いた高次タプル共起のアナログ, あるいは転位ハトリ-ラオ生成物について述べる。
これらの高次共起は、他のトークンの会社におけるトークンの共通性を符号化し、よく研究される相互情報を一般化する。
我々は、このテンソルの使用を一般的なnlpモデルと類似性のハイパーグラフモデルを用いて実証する。
関連論文リスト
- Quantization of Large Language Models with an Overdetermined Basis [73.79368761182998]
本稿では,嘉心表現の原理に基づくデータ量子化アルゴリズムを提案する。
以上の結果から, カシ量子化はモデル性能の競争力や優れた品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T12:38:46Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Recursive Binding for Similarity-Preserving Hypervector Representations
of Sequences [4.65149292714414]
HDC/VSAソリューションを設計するための重要なステップは、入力データからそのような表現を得ることである。
ここでは, 近傍位置における同一配列要素の類似性を両立させる分散表現への変換を提案する。
単語類似性の人間の知覚をモデル化するためのシンボル文字列を用いて,提案手法を実験的に検討した。
論文 参考訳(メタデータ) (2022-01-27T17:41:28Z) - Sublinear Time Approximation of Text Similarity Matrices [50.73398637380375]
一般的なNystr"om法を不確定な設定に一般化する。
我々のアルゴリズムは任意の類似性行列に適用でき、行列のサイズでサブ線形時間で実行される。
本手法は,CUR分解の単純な変種とともに,様々な類似性行列の近似において非常によく機能することを示す。
論文 参考訳(メタデータ) (2021-12-17T17:04:34Z) - Sinkformers: Transformers with Doubly Stochastic Attention [22.32840998053339]
我々はシンクホルンのアルゴリズムを用いて注意行列を2倍にし、その結果のモデルをシンクフォーマと呼ぶ。
実験面では、Sinkformersは視覚および自然言語処理タスクにおけるモデルの精度を向上させる。
重要なのは、3D形状の分類において、シンクフォーマーは顕著な改善をもたらすことである。
論文 参考訳(メタデータ) (2021-10-22T13:25:01Z) - Leveraging redundancy in attention with Reuse Transformers [58.614198953733194]
Pairwise dot product-based attentionでは、Transformerは入力依存の方法でトークン間で情報を交換することができる。
典型的なTransformerモデルは、同じシーケンスに対してそのようなペアワイズアテンションスコアを何度も計算する。
本稿では,複数の層において1層で計算された注意点を再利用する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:08:02Z) - Tensor Representations for Action Recognition [54.710267354274194]
シーケンスにおける人間の行動は、空間的特徴とその時間的ダイナミクスの複雑な相互作用によって特徴づけられる。
アクション認識タスクの視覚的特徴間の高次関係を捉えるための新しいテンソル表現を提案する。
我々は,高次テンソルといわゆる固有値パワー正規化(NEP)を用いて,高次事象のスペクトル検出を行う。
論文 参考訳(メタデータ) (2020-12-28T17:27:18Z) - The multilayer random dot product graph [6.722870980553432]
ランダムドット積グラフ(ランダムドット積グラフ)と呼ばれる潜在位置ネットワークモデルの包括的拡張を提案する。
本稿では,サブマトリクスを適切な潜在空間に埋め込む手法を提案する。
単一グラフ埋め込みによるリンク予測の実証的な改善がサイバーセキュリティの例で示されている。
論文 参考訳(メタデータ) (2020-07-20T20:31:39Z) - The general theory of permutation equivarant neural networks and higher
order graph variational encoders [6.117371161379209]
一般置換同変層の式を導出し、各層が列と列を同時に置換することで行列に作用する場合を含む。
このケースはグラフ学習や関係学習アプリケーションで自然に発生する。
2階グラフ変分エンコーダを提案し、同変生成モデルの潜在分布は交換可能である必要があることを示す。
論文 参考訳(メタデータ) (2020-04-08T13:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。