論文の概要: Graph schemas as abstractions for transfer learning, inference, and
planning
- arxiv url: http://arxiv.org/abs/2302.07350v1
- Date: Tue, 14 Feb 2023 21:23:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 16:29:55.429038
- Title: Graph schemas as abstractions for transfer learning, inference, and
planning
- Title(参考訳): 伝達学習、推論、計画のための抽象化としてのグラフスキーマ
- Authors: J. Swaroop Guntupalli, Rajkumar Vasudeva Raju, Shrinu Kushagra, Carter
Wendelken, Danny Sawyer, Ishan Deshpande, Guangyao Zhou, Miguel
L\'azaro-Gredilla, Dileep George
- Abstract要約: 概念と振る舞いの一般的な構造化された表現 -- スキーマ -- は、抽象化をエンコードする強力な方法として提案されている。
これらのモデルで学習した潜在グラフにはスロット構造 -- スキーマ -- があり、環境間の知識伝達を素早く行うことができることを示している。
- 参考スコア(独自算出の注目度): 7.231898355167955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose schemas as a model for abstractions that can be used for rapid
transfer learning, inference, and planning. Common structured representations
of concepts and behaviors -- schemas -- have been proposed as a powerful way to
encode abstractions. Latent graph learning is emerging as a new computational
model of the hippocampus to explain map learning and transitive inference. We
build on this work to show that learned latent graphs in these models have a
slot structure -- schemas -- that allow for quick knowledge transfer across
environments. In a new environment, an agent can rapidly learn new bindings
between the sensory stream to multiple latent schemas and select the best
fitting one to guide behavior. To evaluate these graph schemas, we use two
previously published challenging tasks: the memory & planning game and one-shot
StreetLearn, that are designed to test rapid task solving in novel
environments. Graph schemas can be learned in far fewer episodes than previous
baselines, and can model and plan in a few steps in novel variations of these
tasks. We further demonstrate learning, matching, and reusing graph schemas in
navigation tasks in more challenging environments with aliased observations and
size variations, and show how different schemas can be composed to model larger
2D and 3D environments.
- Abstract(参考訳): 本稿では,素早い伝達学習,推論,計画に使用できる抽象モデルのモデルとしてスキーマを提案する。
概念と振る舞いの一般的な構造化表現 -- スキーマ -- は、抽象化をエンコードする強力な方法として提案されている。
海馬の新しい計算モデルとして潜在グラフ学習が登場し、地図学習と推移的推論を説明する。
これらのモデルで学習した潜在グラフがスロット構造 -- スキーマ -- を持ち、環境間での知識伝達を素早く行うことができることを示すために、この作業を構築します。
新しい環境では、エージェントは複数の潜在スキーマに対する感覚ストリーム間の新しい結合を迅速に学習し、行動誘導に最適なものを選択することができる。
これらのグラフスキーマを評価するために、以前公開された2つの課題であるメモリ&プランニングゲームと、新しい環境での迅速なタスク解決をテストするために設計されたワンショットストリートレアーンを使用しています。
グラフスキーマは、以前のベースラインよりもはるかに少ないエピソードで学習でき、これらのタスクの新しいバリエーションを数ステップでモデル化し、計画することができる。
さらに,ナビゲーションタスクにおけるグラフスキーマの学習,マッチング,再利用について,より困難な環境での観察とサイズの変化を実証し,より大きな2Dおよび3D環境をモデル化するための異なるスキーマの構成方法を示す。
関連論文リスト
- Graph Memory Learning: Imitating Lifelong Remembering and Forgetting of Brain Networks [31.554027786868815]
本稿では,BGML(Brain-inspired Graph Memory Learning)というグラフメモリ学習の新たな概念を紹介する。
BGMLは、記憶と忘れの潜在的な衝突を軽減するために、特徴グラフの粒度学習に根ざした多階層的階層的漸進学習機構を組み込んでいる。
さらに,新たに追加されるインクリメンタル情報における信頼できない構造の問題に対処するために,情報自己評価のオーナシップ機構を提案する。
論文 参考訳(メタデータ) (2024-07-27T05:50:54Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Cross-view Self-Supervised Learning on Heterogeneous Graph Neural
Network via Bootstrapping [0.0]
不均一グラフニューラルネットワークは、優れた能力を持つ異種グラフの情報を表現することができる。
本稿では,多数のペアを生成することなく優れた表現を生成できるシステムを提案する。
提案モデルは,様々な実世界のデータセットにおいて,他の手法よりも最先端の性能を示した。
論文 参考訳(メタデータ) (2022-01-10T13:36:05Z) - GraphOpt: Learning Optimization Models of Graph Formation [72.75384705298303]
本稿では,グラフ構造形成の暗黙的モデルを学ぶエンドツーエンドフレームワークを提案し,その基盤となる最適化機構を明らかにする。
学習した目的は、観測されたグラフプロパティの説明として機能し、ドメイン内の異なるグラフを渡すために自分自身を貸すことができる。
GraphOptは、グラフ内のリンク生成をシーケンシャルな意思決定プロセスとして、最大エントロピー逆強化学習アルゴリズムを用いて解決する。
論文 参考訳(メタデータ) (2020-07-07T16:51:39Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。