論文の概要: A Grounded Approach to Modeling Generic Knowledge Acquisition
- arxiv url: http://arxiv.org/abs/2105.03207v1
- Date: Fri, 7 May 2021 12:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 16:32:11.550156
- Title: A Grounded Approach to Modeling Generic Knowledge Acquisition
- Title(参考訳): ジェネリック知識獲得のモデル化のための基礎的アプローチ
- Authors: Deniz Beser, Joe Cecil, Marjorie Freedman, Jacob Lichtefeld, Mitch
Marcus, Sarah Payne, and Charles Yang
- Abstract要約: 概念ネットワークを導入することにより,基礎言語獲得をモデル化する計算フレームワークを拡張した。
この新しい抽象化レイヤにより、システムはジェネリックステートメントから学んだ知識をエンコードし、システムによって学習された概念間の関連を表現することができる。
- 参考スコア(独自算出の注目度): 2.0668345369301266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce and implement a cognitively plausible model for learning from
generic language, statements that express generalizations about members of a
category and are an important aspect of concept development in language
acquisition (Carlson & Pelletier, 1995; Gelman, 2009). We extend a
computational framework designed to model grounded language acquisition by
introducing the concept network. This new layer of abstraction enables the
system to encode knowledge learned from generic statements and represent the
associations between concepts learned by the system. Through three tasks that
utilize the concept network, we demonstrate that our extensions to ADAM can
acquire generic information and provide an example of how ADAM can be used to
model language acquisition.
- Abstract(参考訳): 汎用言語から学習するための認知的に妥当なモデル、あるカテゴリーのメンバーについての一般化を表現し、言語獲得における概念開発の重要な側面であるステートメントを紹介し、実装する(carlson & pelletier, 1995; gelman, 2009)。
概念ネットワークを導入することにより,基礎言語獲得をモデル化する計算フレームワークを拡張した。
この新しい抽象化レイヤにより、システムはジェネリックステートメントから学んだ知識をエンコードし、システムによって学習された概念間の関連を表現することができる。
概念ネットワークを利用する3つのタスクを通じて、ADAMへの拡張が汎用情報を取得することを実証し、ADAMが言語習得のモデル化にどのように使えるかを例示する。
関連論文リスト
- Concept Formation and Alignment in Language Models: Bridging Statistical Patterns in Latent Space to Concept Taxonomy [11.232704182001253]
本稿では,言語モデル(LM)の領域における概念形成とアライメントについて考察する。
様々なLMで学習した意味表現において,概念とその階層構造を識別する機構を提案する。
論文 参考訳(メタデータ) (2024-06-08T01:27:19Z) - Learning Structure and Knowledge Aware Representation with Large Language Models for Concept Recommendation [50.31872005772817]
概念推薦は,学習者が自身の知識状態と人間の知識システムに基づいて学習する次の概念を提案することを目的としている。
従来のアプローチでは、人間の知識システムをこれらの教育モデルを設計するプロセスに効果的に統合していない。
SKarREC(Structure and Knowledge Aware Representation Learning framework for concept Recommendation)を提案する。
論文 参考訳(メタデータ) (2024-05-21T01:35:36Z) - Sketch-Plan-Generalize: Continual Few-Shot Learning of Inductively Generalizable Spatial Concepts [6.932008652560561]
我々は、観測されたインスタンスを説明するsuccinct$ program$表現を推論する学習アーキテクチャを模索する。
提案手法は,大規模言語モデルのコード生成能力とニューラルネットワークの基底表現の利点を組み合わせたものである。
論文 参考訳(メタデータ) (2024-04-11T14:09:41Z) - Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - OC-NMN: Object-centric Compositional Neural Module Network for
Generative Visual Analogical Reasoning [49.12350554270196]
モジュラリティがいかにして、想像にインスパイアされた構成データ拡張フレームワークを導出できるかを示す。
本手法は, オブジェクト中心合成ニューラルネットワーク (OC-NMN) を用いて, 視覚生成推論タスクを, ドメイン固有言語を使わずに, オブジェクトに適用した一連のプリミティブに分解する。
論文 参考訳(メタデータ) (2023-10-28T20:12:58Z) - Towards Ontology Construction with Language Models [13.94023263091972]
本稿では,大言語モデルを問合せすることで,与えられたドメインの概念階層を自動的に構築する手法を提案する。
実験の結果,LLMは概念階層の構築に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-09-18T16:02:39Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - Analogical Concept Memory for Architectures Implementing the Common
Model of Cognition [1.9417302920173825]
そこで我々は,Soar の新たなアナログ概念メモリを提案し,宣言的長期記憶の現在のシステムを強化した。
提案したメモリに実装されたアナログ学習手法は,多様な新しい概念を迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-21T04:39:07Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Characterizing an Analogical Concept Memory for Architectures
Implementing the Common Model of Cognition [1.468003557277553]
そこで我々は,Soar の新たなアナログ概念メモリを提案し,宣言的長期記憶の現在のシステムを強化した。
提案したメモリに実装されたアナログ学習手法は,多様な新しい概念を迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2020-06-02T21:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。