論文の概要: Noise-robust classification with hypergraph neural network
- arxiv url: http://arxiv.org/abs/2102.01934v1
- Date: Wed, 3 Feb 2021 08:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 03:18:42.420612
- Title: Noise-robust classification with hypergraph neural network
- Title(参考訳): ハイパーグラフニューラルネットワークによるノイズロバスト分類
- Authors: Nguyen Trinh Vu Dang, Loc Tran, Linh Tran
- Abstract要約: 本稿では,ハイパーグラフニューラルネットワーク手法の新たなバージョンを提案する。
これら5つの手法の精度を評価し,比較した。
実験結果から, ハイパグラフニューラルネットワーク法は, ノイズレベルが大きくなると最高の性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 4.003697389752555
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper presents a novel version of the hypergraph neural network method.
This method is utilized to solve the noisy label learning problem. First, we
apply the PCA dimensional reduction technique to the feature matrices of the
image datasets in order to reduce the "noise" and the redundant features in the
feature matrices of the image datasets and to reduce the runtime constructing
the hypergraph of the hypergraph neural network method. Then, the classic
graph-based semi-supervised learning method, the classic hypergraph based
semi-supervised learning method, the graph neural network, the hypergraph
neural network, and our proposed hypergraph neural network are employed to
solve the noisy label learning problem. The accuracies of these five methods
are evaluated and compared. Experimental results show that the hypergraph
neural network methods achieve the best performance when the noise level
increases. Moreover, the hypergraph neural network methods are at least as good
as the graph neural network.
- Abstract(参考訳): 本論文では,ハイパーグラフニューラルネットワークの新しい手法を提案する。
雑音ラベル学習問題を解くためにこの手法を用いる。
まず,画像データセットの特徴行列にPCA次元還元手法を適用し,画像データセットの特徴行列における「ノイズ」と冗長な特徴を低減し,ハイパーグラフニューラルネットワーク手法のハイパーグラフ構築ランタイムを削減した。
そこで,従来のグラフに基づく半教師付き学習法,古典的ハイパーグラフに基づく半教師付き学習法,グラフニューラルネットワーク,ハイパーグラフニューラルネットワーク,提案したハイパーグラフニューラルネットワークを用いて,ノイズの多いラベル学習問題を解決する。
これら5つの手法の精度を評価し,比較した。
実験の結果、ハイパーグラフニューラルネットワーク法はノイズレベルが増加すると最高の性能が得られることがわかった。
さらに、ハイパーグラフニューラルネットワークの手法は、グラフニューラルネットワークと少なくとも同等である。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - HyperMagNet: A Magnetic Laplacian based Hypergraph Neural Network [0.16874375111244327]
本稿では,ハイパーグラフを非可逆マルコフ連鎖として表現する,ハイパーグラフニューラルネットワークの代替手法を提案する。
我々はこのマルコフ連鎖を用いて、提案したハイパーグラフニューラルネットワークの入力として機能する複素エルミートラプラシアン行列(磁気ラプラシアン)を構築する。
論文 参考訳(メタデータ) (2024-02-15T03:05:45Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Preventing Over-Smoothing for Hypergraph Neural Networks [0.0]
階層数の増加に伴い,ハイパーグラフニューラルネットワークの性能は向上しないことを示す。
我々はディープ・HGCNと呼ばれる新しいディープ・ハイパーグラフ・畳み込みネットワークを開発し、ディープ・レイヤにおけるノード表現を維持できる。
論文 参考訳(メタデータ) (2022-03-31T16:33:31Z) - Directed hypergraph neural network [0.0]
本稿では,指向性ハイパーグラフのための新しいニューラルネットワーク手法を提案する。
実験で使用される2つのデータセットは、coraとciteseerデータセットである。
論文 参考訳(メタデータ) (2020-08-09T01:39:52Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z) - Learning Local Complex Features using Randomized Neural Networks for
Texture Analysis [0.1474723404975345]
テクスチャ解析のための学習手法と複雑ネットワーク(CN)理論を組み合わせた新しい手法を提案する。
この方法はCNの表現能力を利用してテクスチャイメージを有向ネットワークとしてモデル化する。
このニューラルネットワークは、単一の隠蔽層を持ち、高速学習アルゴリズムを使用して、テクスチャのキャラクタリゼーションのためにローカルなCNパターンを学習することができる。
論文 参考訳(メタデータ) (2020-07-10T23:18:01Z) - Hcore-Init: Neural Network Initialization based on Graph Degeneracy [22.923756039561194]
ディープラーニングアーキテクチャから抽出した全重み付きマルチパートグラフに対して,kコア構造の適応版を提案する。
多部グラフは双部グラフの組合せであり、ハイパーグラフの入射グラフであるので、k-ハイパーコア分解を設計する。
論文 参考訳(メタデータ) (2020-04-16T12:57:14Z) - Molecule Property Prediction and Classification with Graph Hypernetworks [113.38181979662288]
ネットワークをハイパーネットワークに置き換えることで性能が向上することを示す。
ハイパーネットワークの適用において大きな困難は、安定性の欠如である。
最近の研究は、エラー訂正コードのコンテキストにおいて、ハイパーネットワークのトレーニング不安定性に取り組んでいる。
論文 参考訳(メタデータ) (2020-02-01T16:44:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。