論文の概要: Graphs for deep learning representations
- arxiv url: http://arxiv.org/abs/2012.07439v1
- Date: Mon, 14 Dec 2020 11:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:25:18.969963
- Title: Graphs for deep learning representations
- Title(参考訳): 深層学習表現のためのグラフ
- Authors: Carlos Lassance
- Abstract要約: グラフ信号処理(GSP)の最近の進歩に基づくグラフ形式化について紹介します。
すなわち、ディープニューラルネットワークの潜在空間を表すためにグラフを使用します。
このグラフ形式化によって,頑健性の確保,学習プロセスの設計における任意の選択量の削減,入力に付加された小さな一般化の改善,計算複雑性の低減など,さまざまな質問に答えることができることが示されています。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Deep Learning methods have achieved state of the art
performance in a vast range of machine learning tasks, including image
classification and multilingual automatic text translation. These architectures
are trained to solve machine learning tasks in an end-to-end fashion. In order
to reach top-tier performance, these architectures often require a very large
number of trainable parameters. There are multiple undesirable consequences,
and in order to tackle these issues, it is desired to be able to open the black
boxes of deep learning architectures. Problematically, doing so is difficult
due to the high dimensionality of representations and the stochasticity of the
training process. In this thesis, we investigate these architectures by
introducing a graph formalism based on the recent advances in Graph Signal
Processing (GSP). Namely, we use graphs to represent the latent spaces of deep
neural networks. We showcase that this graph formalism allows us to answer
various questions including: ensuring generalization abilities, reducing the
amount of arbitrary choices in the design of the learning process, improving
robustness to small perturbations added to the inputs, and reducing
computational complexity
- Abstract(参考訳): 近年,Deep Learning法は,画像分類や多言語自動テキスト翻訳など,幅広い機械学習タスクにおいて,最先端技術を実現している。
これらのアーキテクチャは、エンドツーエンドの方法で機械学習タスクを解決するように訓練される。
上位層のパフォーマンスを達成するために、これらのアーキテクチャは、しばしば非常に多くのトレーニング可能なパラメータを必要とする。
いくつかの望ましくない結果があり、これらの問題に対処するためには、深層学習アーキテクチャのブラックボックスをオープンできることが望まれている。
問題なのは、表現の高次元性とトレーニングプロセスの確率性のため、そうすることは困難である。
本稿では,グラフ信号処理(GSP)の最近の進歩に基づくグラフ形式を導入して,これらのアーキテクチャを考察する。
すなわち、ディープニューラルネットワークの潜在空間を表現するためにグラフを使用します。
このグラフ形式は、一般化能力の確保、学習プロセスの設計における任意の選択量の削減、入力に追加される小さな摂動に対する堅牢性の向上、複雑性の低減など、さまざまな質問に答えることができます。
関連論文リスト
- Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Reinforced Continual Learning for Graphs [18.64268861430314]
本稿では,アーキテクチャベースとメモリベースのアプローチを組み合わせたグラフ連続学習戦略を提案する。
タスク・インクリメンタル・ラーニングとクラス・インクリメンタル・ラーニング・セッティングの両方において,いくつかのグラフ連続学習ベンチマーク問題を用いて数値検証を行った。
論文 参考訳(メタデータ) (2022-09-04T07:49:59Z) - Metric Based Few-Shot Graph Classification [18.785949422663233]
少ないショットの学習では、有効性を放棄することなく、不足するデータレシエーションに現代的なディープラーニングモデルを採用することができる。
本研究では,最先端グラフ埋め込みを用いた単純な距離メトリック学習ベースラインにより,タスクの競合的な結果が得られることを示す。
また,MixUpをベースとしたオンラインデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2022-06-08T06:29:46Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - Learning through structure: towards deep neuromorphic knowledge graph
embeddings [0.5906031288935515]
本稿では,知識グラフ推論のための深層グラフ学習アーキテクチャをニューロモルフィックアーキテクチャにマッピングする戦略を提案する。
ランダムかつ未学習のグラフニューラルネットワークが局所的なグラフ構造を保存することができるという知見に基づいて、凍結したニューラルネットワークの浅い知識グラフ埋め込みモデルを構成する。
我々は,従来型のハードウェア上では,性能水準を維持しながら,高速化とメモリの大幅な削減を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:01:04Z) - SIGN: Scalable Inception Graph Neural Networks [4.5158585619109495]
本稿では,グラフサンプリングの必要性を助長する,効率的でスケーラブルなグラフ深層学習アーキテクチャを提案する。
私たちのアーキテクチャでは、異なるローカルグラフ演算子を使用して、そのタスクに最も適しています。
我々は,1億1000万のノードと15億のエッジを持つ,最大の公開グラフデータセットであるogbn-papers100Mについて,最先端の結果を得た。
論文 参考訳(メタデータ) (2020-04-23T14:46:10Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。