論文の概要: Graphs as Tools to Improve Deep Learning Methods
- arxiv url: http://arxiv.org/abs/2110.03999v1
- Date: Fri, 8 Oct 2021 09:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 13:55:30.618053
- Title: Graphs as Tools to Improve Deep Learning Methods
- Title(参考訳): ディープラーニングメソッドを改善するツールとしてのグラフ
- Authors: Carlos Lassance and Myriam Bontonou and Mounia Hamidouche and Bastien
Pasdeloup and Lucas Drumetz and Vincent Gripon
- Abstract要約: 深層学習法を改善するためのツールとしてグラフを用いた最近の研究をレビューする。
この章は、DNNの中間層を視覚化し、データ表現を視覚化し、グラフの目的関数を最適化し、学習プロセスを規則化するツールである。
- 参考スコア(独自算出の注目度): 9.806263762614057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep neural networks (DNNs) have known an important rise in
popularity. However, although they are state-of-the-art in many machine
learning challenges, they still suffer from several limitations. For example,
DNNs require a lot of training data, which might not be available in some
practical applications. In addition, when small perturbations are added to the
inputs, DNNs are prone to misclassification errors. DNNs are also viewed as
black-boxes and as such their decisions are often criticized for their lack of
interpretability.
In this chapter, we review recent works that aim at using graphs as tools to
improve deep learning methods. These graphs are defined considering a specific
layer in a deep learning architecture. Their vertices represent distinct
samples, and their edges depend on the similarity of the corresponding
intermediate representations. These graphs can then be leveraged using various
methodologies, many of which built on top of graph signal processing.
This chapter is composed of four main parts: tools for visualizing
intermediate layers in a DNN, denoising data representations, optimizing graph
objective functions and regularizing the learning process.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)の人気が高まっている。
しかし、機械学習の課題の多くは最先端のものだが、それでもいくつかの制限に苦しめられている。
例えば、dnnには多くのトレーニングデータが必要ですが、実用的なアプリケーションでは利用できません。
さらに、入力に小さな摂動を加えると、DNNは誤分類エラーを起こしやすい。
DNNはブラックボックスと見なされ、その決定は解釈可能性の欠如によってしばしば批判される。
本章では,ディープラーニング手法を改善するツールとしてグラフを用いた最近の研究について述べる。
これらのグラフは、ディープラーニングアーキテクチャの特定の層を考慮して定義される。
彼らの頂点は異なるサンプルを表し、それらの辺は対応する中間表現の類似性に依存する。
これらのグラフは様々な手法で利用でき、その多くがグラフ信号処理上に構築されている。
この章は、DNNの中間層を視覚化し、データ表現を視覚化し、グラフの目的関数を最適化し、学習プロセスを規則化するツールである。
関連論文リスト
- Do graph neural network states contain graph properties? [5.222978725954348]
診断分類器を用いたグラフニューラルネットワーク(GNN)のモデル説明可能性パイプラインを提案する。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたるGNNの学習した表現を探索し、解釈することを目的としている。
論文 参考訳(メタデータ) (2024-11-04T15:26:07Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - A Survey on Graph Representation Learning Methods [7.081604594416337]
グラフ表現学習の目的は、大きなグラフの構造と特徴を正確に捉えるグラフ表現ベクトルを生成することである。
グラフ表現学習の最も一般的な2つのカテゴリはグラフニューラルネット(GNN)とグラフニューラルネット(GNN)ベースの手法を使わずにグラフ埋め込み手法である。
論文 参考訳(メタデータ) (2022-04-04T21:18:48Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Deep Neural Network for DrawiNg Networks, (DNN)^2 [1.5749416770494706]
本稿ではDNN(Deep Neural Network for DrawiNg Networks)と呼ばれる新しいグラフ描画フレームワークを提案する。
グラフ描画におけるDeep Learningアプローチが新規であり,今後の作業における多くの手がかりが特定されているため,(DNN)2が良好に機能していることが示される。
論文 参考訳(メタデータ) (2021-08-08T13:23:26Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph-Free Knowledge Distillation for Graph Neural Networks [30.38128029453977]
グラフデータのないグラフニューラルネットワークから知識を蒸留する最初の専用アプローチを提案する。
グラフフリーkd (gfkd) は知識伝達のためのグラフトポロジ構造を多項分布でモデル化することで学習する。
グラフデータやGNNにおける様々な種類の事前知識を扱うための戦略を提供する。
論文 参考訳(メタデータ) (2021-05-16T21:38:24Z) - GraphMDN: Leveraging graph structure and deep learning to solve inverse
problems [0.0]
グラフニューラルネットワークと混合密度ネットワーク(MDN)の出力を組み合わせたグラフ混合密度ネットワーク(Graph Mixture Density Network, GraphMDN)を開発した。
GraphMDNは、データがグラフ構造されている回帰タスクに優れ、ターゲット統計は密度の混合によってより良く表現される。
論文 参考訳(メタデータ) (2020-10-26T15:44:22Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Wide and Deep Graph Neural Networks with Distributed Online Learning [175.96910854433574]
グラフニューラルネットワーク(GNN)は、自然に分散したアーキテクチャでネットワークデータから表現を学習する。
オンライン学習は、テスト時にGNNを再トレーニングするために使用することができ、この問題を克服することができる。
本稿では,分散オンライン学習機構で容易に更新できる新しいアーキテクチャであるWide and Deep GNN(WD-GNN)を提案する。
論文 参考訳(メタデータ) (2020-06-11T12:48:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。