論文の概要: A Weighted Quiver Kernel using Functor Homology
- arxiv url: http://arxiv.org/abs/2009.12928v1
- Date: Sun, 27 Sep 2020 19:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:18:19.034323
- Title: A Weighted Quiver Kernel using Functor Homology
- Title(参考訳): ファンクターホモロジーを用いた軽量クイックカーネル
- Authors: Manohar Kaul and Dai Tamaki
- Abstract要約: 我々のモデルは、有向グラフ $Q$ であり、集合 $Q_1$ の矢印に対して $w$ の重み関数 $Q$ を備える。
W$ がベクトル空間 $M$ 上の表現を備えるとき、ホモロジー代数の標準的な方法により、ホモロジー群 $H_*(Q,w;M)$ を定義できる。
- 参考スコア(独自算出の注目度): 10.279748604797911
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper, we propose a new homological method to study weighted directed
networks. Our model of such networks is a directed graph $Q$ equipped with a
weight function $w$ on the set $Q_{1}$ of arrows in $Q$. We require that the
range $W$ of our weight function is equipped with an addition or a
multiplication, i.e., $W$ is a monoid in the mathematical terminology. When $W$
is equipped with a representation on a vector space $M$, the standard method of
homological algebra allows us to define the homology groups $H_{*}(Q,w;M)$. It
is known that when $Q$ has no oriented cycles, $H_{n}(Q,w;M)=0$ for $n\ge 2$
and $H_{1}(Q,w;M)$ can be easily computed. This fact allows us to define a new
graph kernel for weighted directed graphs. We made two sample computations with
real data and found that our method is practically applicable.
- Abstract(参考訳): 本稿では,重み付き有向ネットワークの研究のための新しいホモロジー手法を提案する。
このようなネットワークのモデルは、有向グラフ$q$で、$q$で設定された$q_{1}$の矢印に重み関数$w$を備えています。
重み関数の範囲 $w$ には加算や乗法が備わっており、すなわち$w$ は数学用語におけるモノイドである。
W$ がベクトル空間 $M$ 上の表現を備えるとき、ホモロジー代数の標準的な方法により、ホモロジー群 $H_{*}(Q,w;M)$ を定義することができる。
Q$ が向き付けサイクルを持たないとき、$H_{n}(Q,w;M)=0$ for $n\ge 2$ と $H_{1}(Q,w;M)$ は容易に計算できることが知られている。
この事実により、重み付き有向グラフのための新しいグラフカーネルを定義することができる。
実データを用いて2つのサンプル計算を行い,本手法が有効であることを確認した。
関連論文リスト
- LevAttention: Time, Space, and Streaming Efficient Algorithm for Heavy Attentions [54.54897832889028]
任意の$K$に対して、$n$とは独立に「普遍集合」$Uサブセット[n]$が存在し、任意の$Q$と任意の行$i$に対して、大きな注目スコアが$A_i,j$ in row $i$ of $A$は全て$jin U$を持つことを示す。
我々は、視覚変換器のスキームの利点を実証的に示し、トレーニング中に我々の普遍的なセットを使用する新しいモデルのトレーニング方法を示した。
論文 参考訳(メタデータ) (2024-10-07T19:47:13Z) - Transfer Learning for Latent Variable Network Models [18.31057192626801]
潜在変数ネットワークモデルにおける推定のための伝達学習について検討する。
潜伏変数が共有されている場合、エラーの消滅が可能であることを示す。
我々のアルゴリズムは、$o(1)$エラーを達成し、ソースやターゲットネットワーク上でパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2024-06-05T16:33:30Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Algebraic Aspects of Boundaries in the Kitaev Quantum Double Model [77.34726150561087]
我々は、Ksubseteq G$ の部分群に基づく境界の体系的な扱いを、バルクの Kokuev 量子倍 D(G)$ モデルで提供する。
境界サイトは$*$-subalgebra $Xisubseteq D(G)$の表現であり、その構造を強い$*$-準ホップ代数として説明する。
治療の応用として、水平方向の$K=G$と垂直方向の$K=e$に基づく境界付きパッチを調査し、量子コンピュータでどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-08-12T15:05:07Z) - Uncertainties in Quantum Measurements: A Quantum Tomography [52.77024349608834]
量子系 $S$ に関連する可観測物は非可換代数 $mathcal A_S$ を形成する。
密度行列 $rho$ は可観測物の期待値から決定できると仮定される。
アーベル代数は内部自己同型を持たないので、測定装置は可観測物の平均値を決定することができる。
論文 参考訳(メタデータ) (2021-12-14T16:29:53Z) - Fast Graph Sampling for Short Video Summarization using Gershgorin Disc
Alignment [52.577757919003844]
高速グラフサンプリングの最近の進歩を利用して,短い動画を複数の段落に効率よく要約する問題について検討する。
実験結果から,本アルゴリズムは最先端の手法と同等の映像要約を実現し,複雑さを大幅に低減した。
論文 参考訳(メタデータ) (2021-10-21T18:43:00Z) - Algorithms and Hardness for Linear Algebra on Geometric Graphs [14.822517769254352]
グリーンガードとロークリンの有名な高速多重極法における次元$dの指数的依存は改善できないことを示す。
これは高速多重極法について証明された最初の公式な制限である。
論文 参考訳(メタデータ) (2020-11-04T18:35:02Z) - Sharp threshold for alignment of graph databases with Gaussian weights [1.6752182911522522]
重み付きグラフ(行列)データベースアライメントにおける再構成の基本的限界について検討する。
我々は、$pi*$の正確なリカバリには鋭いしきい値が存在することを証明している。
論文 参考訳(メタデータ) (2020-10-30T14:42:17Z) - Learning a Lie Algebra from Unlabeled Data Pairs [7.329382191592538]
深層畳み込みネットワーク (convnets) は、非絡み合った表現を学習する顕著な能力を示している。
本稿では,空間$mathbbRn$の非線形変換を発見する機械学習手法を提案する。
鍵となる考え方は、すべてのターゲット $boldsymboly_i$ を $boldsymbolwidetildey_i = boldsymbolphi(t_i) boldsymbolx_i$ という形の行列ベクトル積で近似することである。
論文 参考訳(メタデータ) (2020-09-19T23:23:52Z) - On the Modularity of Hypernetworks [103.1147622394852]
構造化対象関数の場合、ハイパーネットワークにおけるトレーニング可能なパラメータの総数は、標準ニューラルネットワークのトレーニング可能なパラメータの数や埋め込み法よりも桁違いに小さいことを示す。
論文 参考訳(メタデータ) (2020-02-23T22:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。