論文の概要: CogNet: Bridging Linguistic Knowledge, World Knowledge and Commonsense
Knowledge
- arxiv url: http://arxiv.org/abs/2103.02141v1
- Date: Wed, 3 Mar 2021 02:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:12:34.128357
- Title: CogNet: Bridging Linguistic Knowledge, World Knowledge and Commonsense
Knowledge
- Title(参考訳): CogNet: 言語知識、世界知識、常識知識の橋渡し
- Authors: Chenhao Wang, Yubo Chen, Zhipeng Xue, Yang Zhou, Jun Zhao
- Abstract要約: CogNetは3種類の知識を統合するための知識ベース(KB)である。
FrameNetからの言語知識。状況、オブジェクト、イベントをスキーマ的に記述する。
特定のインスタンスに関する明確な知識を提供するYAGO、Freebase、DBpedia、Wikidataの世界の知識。
暗黙の一般的な事実を記述するConceptNetの常識知識。
- 参考スコア(独自算出の注目度): 22.01447874535337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present CogNet, a knowledge base (KB) dedicated to
integrating three types of knowledge: (1) linguistic knowledge from FrameNet,
which schematically describes situations, objects and events. (2) world
knowledge from YAGO, Freebase, DBpedia and Wikidata, which provides explicit
knowledge about specific instances. (3) commonsense knowledge from ConceptNet,
which describes implicit general facts. To model these different types of
knowledge consistently, we introduce a three-level unified frame-styled
representation architecture. To integrate free-form commonsense knowledge with
other structured knowledge, we propose a strategy that combines automated
labeling and crowdsourced annotation. At present, CogNet integrates 1,000+
semantic frames from linguistic KBs, 20,000,000+ frame instances from world
KBs, as well as 90,000+ commonsense assertions from commonsense KBs. All these
data can be easily queried and explored on our online platform, and free to
download in RDF format for utilization under a CC-BY-SA 4.0 license. The demo
and data are available at http://cognet.top/.
- Abstract(参考訳): 本論文では,(1) FrameNetの言語的知識,すなわち状況,オブジェクト,イベントを図式的に記述する知識の統合を目的とした知識基盤(KB)であるCogNetについて述べる。
(2)特定のインスタンスに関する明示的な知識を提供するyago、freebase、dbpedia、wikidataからの世界知識。
3) 暗黙の一般事実を記述する概念ネットからの常識知識。
異なる種類の知識を一貫してモデル化するために,3レベル統一フレームスタイル表現アーキテクチャを導入する。
自由形式のコモンセンス知識を他の構造化知識と統合するために,自動ラベリングとクラウドソースアノテーションを組み合わせた戦略を提案する。
現在CogNetは、言語KBから1,000以上のセマンティクスフレーム、世界KBから20,000,000以上のフレームインスタンス、およびコモンセンスKBから90,000以上のコモンセンスアサーションを統合しています。
これらのデータは、オンラインプラットフォーム上で簡単にクエリされ、探索でき、CC-BY-SA 4.0ライセンスの下でRDF形式で無料でダウンロードできる。
デモとデータはhttp://cognet.top/で入手できる。
関連論文リスト
- GPTKB: Building Very Large Knowledge Bases from Language Models [15.276041443299905]
我々は,大言語モデル(LLM)から大域的汎用KBを構築することを提案する。
プロトタイプとして、GPT-4o-miniを使用して、GPTKBを構築します。
NLPにとって、LLMの知識(または信念)に関するテキスト構築的な洞察を初めて提供する。
論文 参考訳(メタデータ) (2024-11-07T17:57:03Z) - What Really is Commonsense Knowledge? [58.5342212738895]
我々は、既存のコモンセンス知識の定義を調査し、概念を定義するための3つのフレームワークに基礎を置き、それらをコモンセンス知識の統一的な定義に統合する。
次に、アノテーションと実験のための統合された定義をCommonsenseQAとCommonsenseQA 2.0データセットで使用します。
本研究は,2つのデータセットには非常識知識のインスタンスが多数存在し,これら2つのサブセットに対して大きな性能差があることを示す。
論文 参考訳(メタデータ) (2024-11-06T14:54:19Z) - KnowledGPT: Enhancing Large Language Models with Retrieval and Storage
Access on Knowledge Bases [55.942342665806656]
KnowledGPTは、様々な知識ベースで大きな言語モデルをブリッジするための包括的なフレームワークである。
検索プロセスでは思考プロンプトプログラムを使用し,KBの検索言語をコード形式で生成する。
KnowledGPTは、個々のユーザ要求に合わせて、知識をパーソナライズされたKBに格納する機能を提供する。
論文 参考訳(メタデータ) (2023-08-17T13:07:00Z) - Commonsense and Named Entity Aware Knowledge Grounded Dialogue
Generation [20.283091595536835]
大規模コモンセンスと名前付きエンティティベース知識を効果的に活用するオープンドメイン対話生成モデルを提案する。
提案モデルでは,対話履歴と関連する知識の最も正確かつ重要な部分を保存するために,マルチホップアテンション層を利用する。
2つのベンチマークデータセットの実証結果は、我々のモデルが自動評価指標と人的判断の両方で最先端の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-27T12:11:40Z) - Commonsense Knowledge in Word Associations and ConceptNet [37.751909219863585]
本稿では,ConcpetNet と SWOW という2つの大規模知識資源の詳細な比較を行った。
本稿では,2つのグラフの構造,重なり合い,相違点と,それらが状況的常識的知識をエンコードする程度について検討する。
論文 参考訳(メタデータ) (2021-09-20T06:06:30Z) - A Systematic Investigation of KB-Text Embedding Alignment at Scale [17.636921566637298]
知識ベース(KB)とテキストは相補的な知識を含むことが多い。
相補的な情報を完全に活用するために、両方の知識ソースと共同で埋め込み、推論する方法は、いまだに未解決の問題である。
共同推論のためのKBとテキストの埋め込みを協調する大規模かつ体系的な研究を行う。
論文 参考訳(メタデータ) (2021-06-03T04:14:11Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - JAKET: Joint Pre-training of Knowledge Graph and Language Understanding [73.43768772121985]
本稿では,知識グラフと言語の両方をモデル化する新しい事前学習フレームワークであるJAKETを提案する。
知識モジュールと言語モジュールは相互に支援するための重要な情報を提供する。
我々の設計により、事前学習されたモデルは、新しいドメインの見知らぬ知識グラフに容易に適応できる。
論文 参考訳(メタデータ) (2020-10-02T05:53:36Z) - Computational linguistic assessment of textbook and online learning
media by means of threshold concepts in business education [59.003956312175795]
言語学的観点では、しきい値の概念は特別な語彙の例であり、特定の言語的特徴を示す。
ビジネス教育における63のしきい値の概念のプロファイルは、教科書、新聞、ウィキペディアで調査されている。
3種類のリソースは、しきい値の概念のプロファイルから区別できる。
論文 参考訳(メタデータ) (2020-08-05T12:56:16Z) - Inferential Text Generation with Multiple Knowledge Sources and
Meta-Learning [117.23425857240679]
本研究では,テキストティフ・エルス関係のような多種多様なコモンセンスのイベントの推論テキストを生成する問題について検討する。
既存のアプローチでは、トレーニング例からの限られた証拠を使用して、個々の関係について学習するのが一般的である。
この研究では、モデルのための燃料として複数の知識ソースを使用します。
論文 参考訳(メタデータ) (2020-04-07T01:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。