論文の概要: Exploiting Language Models as a Source of Knowledge for Cognitive Agents
- arxiv url: http://arxiv.org/abs/2310.06846v1
- Date: Tue, 5 Sep 2023 15:18:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 03:35:02.811881
- Title: Exploiting Language Models as a Source of Knowledge for Cognitive Agents
- Title(参考訳): 認知エージェントの知識源としての言語モデルの作成
- Authors: James R. Kirk, Robert E. Wray, John E. Laird
- Abstract要約: 大規模言語モデル(LLM)は、質問応答、要約、自然言語推論など、文の完成度をはるかに超える機能を提供する。
これらの能力の多くは認知システムに潜在的に適用できるが、我々の研究は認知エージェントのタスク知識の源として言語モデルを利用しており、認知アーキテクチャを通じて実現されたエージェントである。
- 参考スコア(独自算出の注目度): 4.557963624437782
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) provide capabilities far beyond sentence
completion, including question answering, summarization, and natural-language
inference. While many of these capabilities have potential application to
cognitive systems, our research is exploiting language models as a source of
task knowledge for cognitive agents, that is, agents realized via a cognitive
architecture. We identify challenges and opportunities for using language
models as an external knowledge source for cognitive systems and possible ways
to improve the effectiveness of knowledge extraction by integrating extraction
with cognitive architecture capabilities, highlighting with examples from our
recent work in this area.
- Abstract(参考訳): 大規模言語モデル(LLM)は、質問応答、要約、自然言語推論など、文の完全性を超える機能を提供する。
これらの能力の多くは認知システムに潜在的に適用できるが、我々の研究は認知エージェントのタスク知識の源として言語モデルを利用しており、認知アーキテクチャを通じて実現されたエージェントである。
我々は,認知システムのための外部知識源として言語モデルを使用するための課題と機会を特定し,この領域における最近の研究の例を示しながら,認知アーキテクチャ能力の抽出と統合することにより,知識抽出の有効性を向上させる方法を提案する。
関連論文リスト
- Limited Out-of-Context Knowledge Reasoning in Large Language Models [65.72847298578071]
LLM(Large Language Models)は、知識ベースとしての強力な能力と、コンテキスト内推論能力を示す。
本稿では、複数の知識を組み合わせて新しい知識を推論する、アウト・オブ・コンテクストの知識推論(OCKR: Out-of-context Knowledge Reasoning)について論じる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - Augmenting LLMs with Knowledge: A survey on hallucination prevention [0.0]
この調査は言語モデル(LM)の領域を掘り下げ、外部の知識ソースをタップする機能を備えている。
欠落したトークンを予測するという標準的な目的に固執する一方で、これらの拡張LMは多種多様で、おそらくパラメトリックでない外部モジュールを活用する。
論文 参考訳(メタデータ) (2023-09-28T14:09:58Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - Knowledge Engineering in the Long Game of Artificial Intelligence: The
Case of Speech Acts [0.6445605125467572]
本稿では,知識工学の原則と実践について述べる。
我々は,言語学,認知モデル,統計自然言語処理において広く追求されている課題である対話行動モデリングに注目した。
論文 参考訳(メタデータ) (2022-02-02T14:05:12Z) - Language Generation for Broad-Coverage, Explainable Cognitive Systems [0.0]
本稿では,OntoAgent認知アーキテクチャ内で開発された言語依存型知的エージェント(LEIA)の自然言語生成の最近の進歩について述べる。
同じ知識ベース、計算言語学の理論、エージェントアーキテクチャ、そして短期的アプリケーションをサポートしながら、時間とともに幅広いカバレッジ機能を開発する方法論を使っている。
論文 参考訳(メタデータ) (2022-01-25T16:09:19Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Language Models as a Knowledge Source for Cognitive Agents [9.061356032792954]
言語モデル (LM) は大量のコーパスで訓練された文補完エンジンである。
本稿では,認知システムのための新たな知識源として言語モデルを用いる上での課題と機会について概説する。
また、認知システムが提供する能力を用いて、言語モデルからの知識抽出を改善する方法も特定する。
論文 参考訳(メタデータ) (2021-09-17T01:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。