論文の概要: Estimating the Cheeger constant using machine learning
- arxiv url: http://arxiv.org/abs/2005.05812v1
- Date: Tue, 12 May 2020 14:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:53:33.030757
- Title: Estimating the Cheeger constant using machine learning
- Title(参考訳): 機械学習によるチーガー定数の推定
- Authors: Ambar Jain, Shivam Pal, and Kashyap Rajeevsarathy
- Abstract要約: 連結正則グラフのチーガー定数は、グラフスペクトルの最大2つの固有値に支配的な線形依存を持つことを示す。
また、より小さなグラフ上の訓練されたディープニューラルネットワークは、より大きなグラフのチェーガー定数を推定する効果的な推定手段として利用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we use machine learning to show that the Cheeger constant of a
connected regular graph has a predominant linear dependence on the largest two
eigenvalues of the graph spectrum. We also show that a trained deep neural
network on graphs of smaller sizes can be used as an effective estimator in
estimating the Cheeger constant of larger graphs.
- Abstract(参考訳): 本稿では、機械学習を用いて、連結正則グラフのチーガー定数が、グラフスペクトルの最大2つの固有値に支配的な線形依存性を持つことを示す。
また、より小さなグラフ上の訓練されたディープニューラルネットワークは、より大きなグラフのチェーガー定数を推定する有効な推定手段として利用できることを示す。
関連論文リスト
- What makes a good feedforward computational graph? [0.8370225749625163]
フィードフォワード計算グラフの望ましい性質について検討し、忠実度と混合時間という2つの重要な相補的尺度を探索する。
我々の研究は、様々なグラフに対するメトリクスの振る舞いに関する理論的分析と、これらのメトリクスをトレーニングされたニューラルネットワークモデルの性能に関連付けることの両方から裏付けられている。
論文 参考訳(メタデータ) (2025-02-10T18:26:40Z) - Graph Neural Networks with a Distribution of Parametrized Graphs [27.40566674759208]
複数のグラフをパラメータ化して生成するために潜在変数を導入する。
予測最大化フレームワークにおいて,ネットワークパラメータの最大推定値を得る。
論文 参考訳(メタデータ) (2023-10-25T06:38:24Z) - Learning Feynman Diagrams using Graph Neural Networks [70.540936204654]
本研究は、行列要素の予測を90%以上の有意な数値精度で行うグラフアテンション層を用いている。
ピーク性能は200エポック未満のトレーニングで10%以上の時間で3つの有意な数値精度を予測した。
論文 参考訳(メタデータ) (2022-11-25T05:53:28Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Not Half Bad: Exploring Half-Precision in Graph Convolutional Neural
Networks [8.460826851547294]
現代の機械学習を用いた効率的なグラフ解析は、ますます注目を集めている。
ディープラーニングアプローチは、隣接行列全体にわたって運用されることが多い。
実行時間とメモリ要求の両方を削減するための効率的な対策を特定することが望ましい。
論文 参考訳(メタデータ) (2020-10-23T19:47:42Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Auto-decoding Graphs [91.3755431537592]
生成モデルは、潜在コードからグラフを合成することを学ぶ自動デコーダである。
グラフは、おそらく接続パターンを特定するためにトレーニングされた自己アテンションモジュールを使用して合成される。
論文 参考訳(メタデータ) (2020-06-04T14:23:01Z) - From graph cuts to isoperimetric inequalities: Convergence rates of
Cheeger cuts on data clouds [3.222802562733786]
バランスの取れたグラフカットの最適化に依存するグラフベースのクラスタリングアルゴリズムについて検討する。
チェーガー定数とそれに関連するチェーガーカットの両方に対して、それらの連続体に対する高い確率収束率を得る。
論文 参考訳(メタデータ) (2020-04-20T13:58:52Z) - Graph Prolongation Convolutional Networks: Explicitly Multiscale Machine
Learning on Graphs with Applications to Modeling of Cytoskeleton [0.0]
我々は新しいタイプのアンサンブルグラフ畳み込みネットワーク(GCN)モデルを定義する。
グラフの空間スケール間のマッピングに最適化された線形射影演算子を用いて、このアンサンブルモデルは、最終的な予測のために各スケールからの情報を集約することを学ぶ。
論文 参考訳(メタデータ) (2020-02-14T01:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。