論文の概要: Knowledge Engineering using Large Language Models
- arxiv url: http://arxiv.org/abs/2310.00637v1
- Date: Sun, 1 Oct 2023 10:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 02:58:51.786309
- Title: Knowledge Engineering using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた知識工学
- Authors: Bradley P. Allen and Lise Stork and Paul Groth
- Abstract要約: 知識工学は知識を創造し、適用するプロセスの作成と保守に焦点を当てる。
伝統的に、知識工学のアプローチは形式言語で表現された知識に焦点を当ててきた。
大規模言語モデルの出現と、自然言語を効果的に扱う能力は、知識工学の基礎と実践に関する疑問を提起する。
- 参考スコア(独自算出の注目度): 1.5607572410953625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge engineering is a discipline that focuses on the creation and
maintenance of processes that generate and apply knowledge. Traditionally,
knowledge engineering approaches have focused on knowledge expressed in formal
languages. The emergence of large language models and their capabilities to
effectively work with natural language, in its broadest sense, raises questions
about the foundations and practice of knowledge engineering. Here, we outline
the potential role of LLMs in knowledge engineering, identifying two central
directions: 1) creating hybrid neuro-symbolic knowledge systems; and 2)
enabling knowledge engineering in natural language. Additionally, we formulate
key open research questions to tackle these directions.
- Abstract(参考訳): 知識工学は、知識を生成し、適用するプロセスの作成と保守に焦点を当てた分野である。
伝統的に、知識工学のアプローチは形式言語で表現される知識に焦点を当ててきた。
大規模言語モデルの出現とその自然言語で効果的に機能する能力は、最も広い意味では、知識工学の基礎と実践に関する疑問を提起する。
本稿では,知識工学におけるLLMの役割について概説する。
1)ハイブリッドニューロシンボリック知識システムの作成,及び
2)自然言語の知識工学を可能にする。
さらに、これらの方向性に取り組むための重要なオープンリサーチの質問を定式化します。
関連論文リスト
- Knowledge Mechanisms in Large Language Models: A Survey and Perspective [88.51320482620679]
本稿では,知識利用と進化を含む新しい分類法から知識メカニズムの解析をレビューする。
LLMが学んだ知識、パラメトリック知識の脆弱性の理由、そして解決が難しい潜在的な暗黒知識(仮説)について論じる。
論文 参考訳(メタデータ) (2024-07-22T06:15:59Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Exploiting Language Models as a Source of Knowledge for Cognitive Agents [4.557963624437782]
大規模言語モデル(LLM)は、質問応答、要約、自然言語推論など、文の完成度をはるかに超える機能を提供する。
これらの能力の多くは認知システムに潜在的に適用できるが、我々の研究は認知エージェントのタスク知識の源として言語モデルを利用しており、認知アーキテクチャを通じて実現されたエージェントである。
論文 参考訳(メタデータ) (2023-09-05T15:18:04Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - Knowledge Engineering in the Long Game of Artificial Intelligence: The
Case of Speech Acts [0.6445605125467572]
本稿では,知識工学の原則と実践について述べる。
我々は,言語学,認知モデル,統計自然言語処理において広く追求されている課題である対話行動モデリングに注目した。
論文 参考訳(メタデータ) (2022-02-02T14:05:12Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Language Models as a Knowledge Source for Cognitive Agents [9.061356032792954]
言語モデル (LM) は大量のコーパスで訓練された文補完エンジンである。
本稿では,認知システムのための新たな知識源として言語モデルを用いる上での課題と機会について概説する。
また、認知システムが提供する能力を用いて、言語モデルからの知識抽出を改善する方法も特定する。
論文 参考訳(メタデータ) (2021-09-17T01:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。