論文の概要: Graph schemas as abstractions for transfer learning, inference, and
planning
- arxiv url: http://arxiv.org/abs/2302.07350v2
- Date: Wed, 13 Dec 2023 02:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 21:17:17.800719
- Title: Graph schemas as abstractions for transfer learning, inference, and
planning
- Title(参考訳): 伝達学習、推論、計画のための抽象化としてのグラフスキーマ
- Authors: J. Swaroop Guntupalli, Rajkumar Vasudeva Raju, Shrinu Kushagra, Carter
Wendelken, Danny Sawyer, Ishan Deshpande, Guangyao Zhou, Miguel
L\'azaro-Gredilla, Dileep George
- Abstract要約: 本稿では,伝達学習の抽象化機構としてグラフスキーマを提案する。
海馬の新しい計算モデルとして潜在グラフ学習が登場している。
学習した潜在グラフを事前の知識として扱うことで、新しい環境を素早く学習することができる。
- 参考スコア(独自算出の注目度): 5.565347203528707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transferring latent structure from one environment or problem to another is a
mechanism by which humans and animals generalize with very little data.
Inspired by cognitive and neurobiological insights, we propose graph schemas as
a mechanism of abstraction for transfer learning. Graph schemas start with
latent graph learning where perceptually aliased observations are disambiguated
in the latent space using contextual information. Latent graph learning is also
emerging as a new computational model of the hippocampus to explain map
learning and transitive inference. Our insight is that a latent graph can be
treated as a flexible template -- a schema -- that models concepts and
behaviors, with slots that bind groups of latent nodes to the specific
observations or groundings. By treating learned latent graphs (schemas) as
prior knowledge, new environments can be quickly learned as compositions of
schemas and their newly learned bindings. We evaluate graph schemas on two
previously published challenging tasks: the memory & planning game and one-shot
StreetLearn, which are designed to test rapid task solving in novel
environments. Graph schemas can be learned in far fewer episodes than previous
baselines, and can model and plan in a few steps in novel variations of these
tasks. We also demonstrate learning, matching, and reusing graph schemas in
more challenging 2D and 3D environments with extensive perceptual aliasing and
size variations, and show how different schemas can be composed to model larger
and more complex environments. To summarize, our main contribution is a unified
system, inspired and grounded in cognitive science, that facilitates rapid
transfer learning of new environments using schemas via map-induction and
composition that handles perceptual aliasing.
- Abstract(参考訳): ある環境や問題から別の環境へ潜伏構造を移すことは、人間や動物が非常に少ないデータで一般化するメカニズムである。
認知と神経生物学の知見に触発されて,伝達学習の抽象化機構としてグラフスキーマを提案する。
グラフスキーマは、知覚的にエイリアスされた観察を文脈情報を用いて潜在空間で曖昧にする潜在グラフ学習から始まる。
潜在グラフ学習は、マップ学習と推移的推論を説明するために海馬の新しい計算モデルとしても登場している。
私たちの見識では、潜在ノードのグループと特定の観測や接地を結合するスロットで、概念や振る舞いをモデル化するフレキシブルなテンプレート -- スキーマ -- として扱うことができる、ということです。
学習された潜在グラフ(schemas)を事前の知識として扱うことにより、新しい環境はスキーマと新しい学習されたバインディングの合成としてすぐに学べる。
我々は、新しい環境での迅速なタスク解決のテストを目的とした、メモリ&プランニングゲームとワンショットのStreetLearnの2つの課題に対して、グラフスキーマを評価した。
グラフスキーマは、以前のベースラインよりもはるかに少ないエピソードで学習でき、これらのタスクの新しいバリエーションを数ステップでモデル化し、計画することができる。
また,より困難な2次元および3次元環境におけるグラフスキーマの学習,マッチング,再利用の例を示し,より大規模で複雑な環境をモデル化するために異なるスキーマをどのように構成できるかを示す。
要約すると、我々の主な貢献は、認知科学にインスパイアされ基礎付けられた統一されたシステムであり、地図誘導と知覚エイリアスを扱う構成を通してスキーマを用いた新しい環境の迅速な伝達学習を容易にする。
関連論文リスト
- Graph Memory Learning: Imitating Lifelong Remembering and Forgetting of Brain Networks [31.554027786868815]
本稿では,BGML(Brain-inspired Graph Memory Learning)というグラフメモリ学習の新たな概念を紹介する。
BGMLは、記憶と忘れの潜在的な衝突を軽減するために、特徴グラフの粒度学習に根ざした多階層的階層的漸進学習機構を組み込んでいる。
さらに,新たに追加されるインクリメンタル情報における信頼できない構造の問題に対処するために,情報自己評価のオーナシップ機構を提案する。
論文 参考訳(メタデータ) (2024-07-27T05:50:54Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Cross-view Self-Supervised Learning on Heterogeneous Graph Neural
Network via Bootstrapping [0.0]
不均一グラフニューラルネットワークは、優れた能力を持つ異種グラフの情報を表現することができる。
本稿では,多数のペアを生成することなく優れた表現を生成できるシステムを提案する。
提案モデルは,様々な実世界のデータセットにおいて,他の手法よりも最先端の性能を示した。
論文 参考訳(メタデータ) (2022-01-10T13:36:05Z) - GraphOpt: Learning Optimization Models of Graph Formation [72.75384705298303]
本稿では,グラフ構造形成の暗黙的モデルを学ぶエンドツーエンドフレームワークを提案し,その基盤となる最適化機構を明らかにする。
学習した目的は、観測されたグラフプロパティの説明として機能し、ドメイン内の異なるグラフを渡すために自分自身を貸すことができる。
GraphOptは、グラフ内のリンク生成をシーケンシャルな意思決定プロセスとして、最大エントロピー逆強化学習アルゴリズムを用いて解決する。
論文 参考訳(メタデータ) (2020-07-07T16:51:39Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。