論文の概要: Sketch-Plan-Generalize: Continual Few-Shot Learning of Inductively Generalizable Spatial Concepts
- arxiv url: http://arxiv.org/abs/2404.07774v2
- Date: Wed, 29 May 2024 09:46:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 22:52:03.754056
- Title: Sketch-Plan-Generalize: Continual Few-Shot Learning of Inductively Generalizable Spatial Concepts
- Title(参考訳): Sketch-Plan-Generalize:帰納的一般化可能な空間概念の連続的なFew-Shot学習
- Authors: Namasivayam Kalithasan, Sachit Sachdeva, Himanshu Gaurav Singh, Vishal Bindal, Arnav Tuli, Gurarmaan Singh Panjeta, Divyanshu Aggarwal, Rohan Paul, Parag Singla,
- Abstract要約: 我々は、観測されたインスタンスを説明するsuccinct$ program$表現を推論する学習アーキテクチャを模索する。
提案手法は,大規模言語モデルのコード生成能力とニューラルネットワークの基底表現の利点を組み合わせたものである。
- 参考スコア(独自算出の注目度): 6.932008652560561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our goal is to enable embodied agents to learn inductively generalizable spatial concepts, e.g., learning staircase as an inductive composition of towers of increasing height. Given a human demonstration, we seek a learning architecture that infers a succinct ${program}$ representation that explains the observed instance. Additionally, the approach should generalize inductively to novel structures of different sizes or complex structures expressed as a hierarchical composition of previously learned concepts. Existing approaches that use code generation capabilities of pre-trained large (visual) language models, as well as purely neural models, show poor generalization to a-priori unseen complex concepts. Our key insight is to factor inductive concept learning as (i) ${\it Sketch:}$ detecting and inferring a coarse signature of a new concept (ii) ${\it Plan:}$ performing MCTS search over grounded action sequences (iii) ${\it Generalize:}$ abstracting out grounded plans as inductive programs. Our pipeline facilitates generalization and modular reuse, enabling continual concept learning. Our approach combines the benefits of the code generation ability of large language models (LLM) along with grounded neural representations, resulting in neuro-symbolic programs that show stronger inductive generalization on the task of constructing complex structures in relation to LLM-only and neural-only approaches. Furthermore, we demonstrate reasoning and planning capabilities with learned concepts for embodied instruction following.
- Abstract(参考訳): 本研究の目的は,高層タワーの帰納的構成として,空間概念の帰納的一般化を学習できるようにすることである。
人間の実演を前提として、観測されたインスタンスを説明するsuccinct ${ program}$表現を推論する学習アーキテクチャを模索する。
さらに、このアプローチは、異なる大きさの新規構造や、以前に学習された概念の階層的な構成として表される複雑な構造に誘導的に一般化すべきである。
事前訓練された大きな(視覚的な)言語モデルのコード生成機能と純粋にニューラルモデルを使用する既存のアプローチは、a-prioriが目にしない複雑な概念への一般化が不十分であることを示している。
私たちのキーとなる洞察は、帰納的概念学習を要因とすることです。
(i)${\it Sketch:}$新しい概念の粗いシグネチャを検出して推測する
(ii)${\it Plan:}$ MCTS search over grounded action sequences
(iii)${\it Generalize:}$ordered planをインダクティブプログラムとして抽象化する。
私たちのパイプラインは、一般化とモジュラーの再利用を促進し、継続的な概念学習を可能にします。
提案手法は,大規模言語モデル(LLM)のコード生成能力と基底的ニューラルネットワーク表現の利点を組み合わせることで,LLMとニューラルオンリーのアプローチに関連する複雑な構造を構築するタスクにおいて,より強力な帰納的一般化を示すニューラルシンボリックプログラムを実現する。
さらに、後続の具体化指導のための学習概念を用いた推論と計画能力を示す。
関連論文リスト
- Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - OC-NMN: Object-centric Compositional Neural Module Network for
Generative Visual Analogical Reasoning [49.12350554270196]
モジュラリティがいかにして、想像にインスパイアされた構成データ拡張フレームワークを導出できるかを示す。
本手法は, オブジェクト中心合成ニューラルネットワーク (OC-NMN) を用いて, 視覚生成推論タスクを, ドメイン固有言語を使わずに, オブジェクトに適用した一連のプリミティブに分解する。
論文 参考訳(メタデータ) (2023-10-28T20:12:58Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z) - Revisit Systematic Generalization via Meaningful Learning [15.90288956294373]
最近の研究は、ニューラルネットワークはそのような認知能力に本質的に効果がないように見えると主張している。
新しい概念と古い概念のセマンティックリンクを条件としたシーケンス・ツー・シーケンス・モデルの合成スキルを再評価する。
論文 参考訳(メタデータ) (2020-03-14T15:27:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。