論文の概要: A Grounded Approach to Modeling Generic Knowledge Acquisition
- arxiv url: http://arxiv.org/abs/2105.03207v1
- Date: Fri, 7 May 2021 12:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 16:32:11.550156
- Title: A Grounded Approach to Modeling Generic Knowledge Acquisition
- Title(参考訳): ジェネリック知識獲得のモデル化のための基礎的アプローチ
- Authors: Deniz Beser, Joe Cecil, Marjorie Freedman, Jacob Lichtefeld, Mitch
Marcus, Sarah Payne, and Charles Yang
- Abstract要約: 概念ネットワークを導入することにより,基礎言語獲得をモデル化する計算フレームワークを拡張した。
この新しい抽象化レイヤにより、システムはジェネリックステートメントから学んだ知識をエンコードし、システムによって学習された概念間の関連を表現することができる。
- 参考スコア(独自算出の注目度): 2.0668345369301266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce and implement a cognitively plausible model for learning from
generic language, statements that express generalizations about members of a
category and are an important aspect of concept development in language
acquisition (Carlson & Pelletier, 1995; Gelman, 2009). We extend a
computational framework designed to model grounded language acquisition by
introducing the concept network. This new layer of abstraction enables the
system to encode knowledge learned from generic statements and represent the
associations between concepts learned by the system. Through three tasks that
utilize the concept network, we demonstrate that our extensions to ADAM can
acquire generic information and provide an example of how ADAM can be used to
model language acquisition.
- Abstract(参考訳): 汎用言語から学習するための認知的に妥当なモデル、あるカテゴリーのメンバーについての一般化を表現し、言語獲得における概念開発の重要な側面であるステートメントを紹介し、実装する(carlson & pelletier, 1995; gelman, 2009)。
概念ネットワークを導入することにより,基礎言語獲得をモデル化する計算フレームワークを拡張した。
この新しい抽象化レイヤにより、システムはジェネリックステートメントから学んだ知識をエンコードし、システムによって学習された概念間の関連を表現することができる。
概念ネットワークを利用する3つのタスクを通じて、ADAMへの拡張が汎用情報を取得することを実証し、ADAMが言語習得のモデル化にどのように使えるかを例示する。
関連論文リスト
- Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - Learning Hierarchical Prompt with Structured Linguistic Knowledge for
Vision-Language Models [43.56153167864033]
大規模言語モデル(LLM)における構造化知識を活用する新しい手法を提案する。
低レベルの即時学習のためのエンティティと属性間のペアワイズ関連をキャプチャする、関係誘導型アテンションモジュールを導入する。
さらに、高レベルのプロンプトとグローバルレベルのプロンプトを組み込むことで、提案された階層構造は、クロスレベルのインターリンクを偽造し、より複雑で長期的な関係を扱うようにモデルに権限を与える。
論文 参考訳(メタデータ) (2023-12-11T12:14:06Z) - OC-NMN: Object-centric Compositional Neural Module Network for
Generative Visual Analogical Reasoning [49.12350554270196]
モジュラリティがいかにして、想像にインスパイアされた構成データ拡張フレームワークを導出できるかを示す。
本手法は, オブジェクト中心合成ニューラルネットワーク (OC-NMN) を用いて, 視覚生成推論タスクを, ドメイン固有言語を使わずに, オブジェクトに適用した一連のプリミティブに分解する。
論文 参考訳(メタデータ) (2023-10-28T20:12:58Z) - Towards Ontology Construction with Language Models [13.94023263091972]
本稿では,大言語モデルを問合せすることで,与えられたドメインの概念階層を自動的に構築する手法を提案する。
実験の結果,LLMは概念階層の構築に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-09-18T16:02:39Z) - Large AI Model-Based Semantic Communications [58.394527592974576]
画像データに特化して設計された大規模AIモデルベースSCフレームワーク(LAM-SC)を提案する。
まず,SKBをベースとしたセグメンテーションモデル(SAM)を設計し,各セグメンテーションの知識を用いて,元のイメージを異なるセグメンテーションセグメントに分割する。
次に、注意に基づく意味統合(ASI)を提案し、SKBが生成した意味セグメントを人間の参加なしに評価し、それらを意味認識画像として統合する。
論文 参考訳(メタデータ) (2023-07-07T10:01:08Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - ConceptX: A Framework for Latent Concept Analysis [21.760620298330235]
本稿では,言語モデル(pLM)における潜在表現空間の解釈と注釈付けを行うための,ループ型ヒューマン・イン・ザ・ループ・フレームワークであるConceptXを提案する。
我々は、教師なしの手法を用いて、これらのモデルで学んだ概念を発見し、人間が概念の説明を生成するためのグラフィカルインターフェースを実現する。
論文 参考訳(メタデータ) (2022-11-12T11:31:09Z) - Analogical Concept Memory for Architectures Implementing the Common
Model of Cognition [1.9417302920173825]
そこで我々は,Soar の新たなアナログ概念メモリを提案し,宣言的長期記憶の現在のシステムを強化した。
提案したメモリに実装されたアナログ学習手法は,多様な新しい概念を迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-21T04:39:07Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Characterizing an Analogical Concept Memory for Architectures
Implementing the Common Model of Cognition [1.468003557277553]
そこで我々は,Soar の新たなアナログ概念メモリを提案し,宣言的長期記憶の現在のシステムを強化した。
提案したメモリに実装されたアナログ学習手法は,多様な新しい概念を迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2020-06-02T21:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。