論文の概要: Regularizing Semi-supervised Graph Convolutional Networks with a
Manifold Smoothness Loss
- arxiv url: http://arxiv.org/abs/2002.07031v1
- Date: Tue, 11 Feb 2020 08:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:47:22.966854
- Title: Regularizing Semi-supervised Graph Convolutional Networks with a
Manifold Smoothness Loss
- Title(参考訳): Manifold Smoothness Lossによる半教師付きグラフ畳み込みネットワークの正規化
- Authors: Qilin Li, Wanquan Liu, Ling Li
- Abstract要約: グラフ構造に関して定義された教師なし多様体の滑らかさ損失を提案し、これは正規化として損失関数に追加することができる。
我々は,多層パーセプトロンおよび既存のグラフネットワークの実験を行い,提案した損失を追加することにより,連続的に性能を向上させることを示す。
- 参考スコア(独自算出の注目度): 12.948899990826426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing graph convolutional networks focus on the neighborhood aggregation
scheme. When applied to semi-supervised learning, they often suffer from the
overfitting problem as the networks are trained with the cross-entropy loss on
a small potion of labeled data. In this paper, we propose an unsupervised
manifold smoothness loss defined with respect to the graph structure, which can
be added to the loss function as a regularization. We draw connections between
the proposed loss with an iterative diffusion process, and show that minimizing
the loss is equivalent to aggregate neighbor predictions with infinite layers.
We conduct experiments on multi-layer perceptron and existing graph networks,
and demonstrate that adding the proposed loss can improve the performance
consistently.
- Abstract(参考訳): 既存のグラフ畳み込みネットワークは、近傍集約スキームに焦点を当てている。
半教師付き学習に適用すると、ラベル付きデータの小さなポット上のクロスエントロピー損失でネットワークが訓練されるため、オーバーフィッティングの問題に陥ることが多い。
本稿では,正規化として損失関数に追加できるグラフ構造に関して定義された教師なし多様体の滑らかさ損失を提案する。
提案する損失と反復拡散過程との接続を抽出し,損失の最小化は無限階層による隣り合わせ予測と同値であることを示す。
我々は,多層パーセプトロンおよび既存のグラフネットワークの実験を行い,提案した損失を追加することにより,連続的に性能を向上させることを示す。
関連論文リスト
- NetDiff: Deep Graph Denoising Diffusion for Ad Hoc Network Topology Generation [1.6768151308423371]
本稿では,無線アドホックネットワークリンクトポロジを生成する拡散確率的アーキテクチャを記述したグラフであるNetDiffを紹介する。
この結果から,生成したリンクは現実的であり,データセットグラフに類似した構造的特性を有しており,操作するには小さな修正と検証ステップのみが必要であることがわかった。
論文 参考訳(メタデータ) (2024-10-09T15:39:49Z) - Gegenbauer Graph Neural Networks for Time-varying Signal Reconstruction [4.6210788730570584]
時間変化グラフ信号は、幅広い応用を伴う機械学習と信号処理において重要な問題である。
本稿では,下流タスクの精度を高めるために学習モジュールを組み込んだ新しい手法を提案する。
提案手法の有効性を評価するために,実データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2024-03-28T19:29:17Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Unsupervised Graph-based Learning Method for Sub-band Allocation in 6G Subnetworks [2.0583251142940377]
グラフベース学習を用いた無線ネットワークにおける周波数サブバンド割り当てのための教師なし手法を提案する。
サブネットワーク配置を競合グラフとしてモデル化し,グラフカラー化とPottsモデルにインスパイアされた教師なし学習アプローチを提案し,サブバンド割り当てを最適化する。
論文 参考訳(メタデータ) (2023-12-13T12:57:55Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Multilayer Graph Clustering with Optimized Node Embedding [70.1053472751897]
多層グラフクラスタリングは、グラフノードをカテゴリまたはコミュニティに分割することを目指しています。
与えられた多層グラフの層をクラスタリングに親しみやすい埋め込みを提案する。
実験の結果,本手法は著しい改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2021-03-30T17:36:40Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - The Implicit Bias of Gradient Descent on Separable Data [44.98410310356165]
予測器は最大マージン(シャープマージンSVM)解の方向へ収束することを示す。
これは、トレーニングエラーがゼロになった後もロジスティックまたはクロスエントロピー損失を最適化し続ける利点を説明するのに役立つ。
論文 参考訳(メタデータ) (2017-10-27T21:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。