論文の概要: Mining Commonsense Facts from the Physical World
- arxiv url: http://arxiv.org/abs/2002.03149v3
- Date: Tue, 14 Apr 2020 00:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:57:09.995981
- Title: Mining Commonsense Facts from the Physical World
- Title(参考訳): 物理世界から常識的な事実を採掘する
- Authors: Yanyan Zou, Wei Lu and Xu Sun
- Abstract要約: 物理的世界のテクストの記述は暗黙的に常識的な事実に言及しているが、コモンセンスの知識基盤はこれらの事実を三重として明確に表現している。
知識基盤の人口化に関する以前の研究のほとんどは、主にFreebaseに焦点を当てていた。
我々は、シーケンステキストと既存の知識ベースリソースの両方から情報を融合する効果的な新しいモデルを構築します。
- 参考スコア(独自算出の注目度): 23.813586698701606
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Textual descriptions of the physical world implicitly mention commonsense
facts, while the commonsense knowledge bases explicitly represent such facts as
triples. Compared to dramatically increased text data, the coverage of existing
knowledge bases is far away from completion. Most of the prior studies on
populating knowledge bases mainly focus on Freebase. To automatically complete
commonsense knowledge bases to improve their coverage is under-explored. In
this paper, we propose a new task of mining commonsense facts from the raw text
that describes the physical world. We build an effective new model that fuses
information from both sequence text and existing knowledge base resource. Then
we create two large annotated datasets each with approximate 200k instances for
commonsense knowledge base completion. Empirical results demonstrate that our
model significantly outperforms baselines.
- Abstract(参考訳): 物理的世界のテクスト記述は暗黙的にコモンセンスの事実を言及し、コモンセンスの知識ベースはこれらの事実を三重項として明示的に表現する。
劇的に増加するテキストデータと比較すると、既存の知識ベースの範囲は完成に遠く及ばない。
知識ベースの普及に関する以前の研究のほとんどは、主にFreebaseに焦点を当てていた。
コモンセンスの知識ベースを自動で完成させ、そのカバレッジを向上させること。
本稿では,物理世界を記述する原文からコモンセンスの事実をマイニングする新たなタスクを提案する。
我々は、シーケンステキストと既存の知識ベースリソースの両方から情報を融合する効果的な新しいモデルを構築します。
次に、2つの大きなアノテートデータセットを作成し、それぞれ200k近いインスタンスでコモンセンス知識ベースを補完する。
実験結果から,本モデルがベースラインを著しく上回ることが示された。
関連論文リスト
- Linking Surface Facts to Large-Scale Knowledge Graphs [23.380979397966286]
Open Information extract (OIE)メソッドは、自然言語のテキストから、"subject"、"relation"、"object"の三重項の形で事実を抽出する。
知識グラフ(KG)は、正準形式(すなわち曖昧な形式)の事実を含むが、そのカバレッジは静的スキーマによって制限される。
本稿では,例えば,ファクトリンク性能を粒度三重スロットレベルで測定できる新しい評価プロトコルを用いたベンチマークを提案する。
論文 参考訳(メタデータ) (2023-10-23T13:18:49Z) - Do Large Language Models Know about Facts? [60.501902866946]
大規模言語モデル(LLM)は、最近、さまざまな自然言語処理タスクにおいて、大幅なパフォーマンス改善を推進している。
我々は,ベンチマークPinocchioを設計し,LLM内の事実知識の範囲と範囲を評価することを目的とする。
Pinocchioには、異なるソース、タイムライン、ドメイン、リージョン、言語にまたがる20万のさまざまな事実質問が含まれている。
論文 参考訳(メタデータ) (2023-10-08T14:26:55Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z) - Commonsense Knowledge in Word Associations and ConceptNet [37.751909219863585]
本稿では,ConcpetNet と SWOW という2つの大規模知識資源の詳細な比較を行った。
本稿では,2つのグラフの構造,重なり合い,相違点と,それらが状況的常識的知識をエンコードする程度について検討する。
論文 参考訳(メタデータ) (2021-09-20T06:06:30Z) - Knowledge Base Completion Meets Transfer Learning [43.89253223499761]
知識ベース補完の目的は、知識ベースにおける既存の事実から目に見えない事実を予測することである。
本稿では,ある事実の集合から別の事実への知識の伝達において,エンティティや関係マッチングを必要とせずに最初のアプローチを導入する。
論文 参考訳(メタデータ) (2021-08-30T09:13:29Z) - Alleviating the Knowledge-Language Inconsistency: A Study for Deep
Commonsense Knowledge [25.31716910260664]
深層コモンセンス知識は、コモンセンス知識の重要な部分を占めている。
文に分散した深層コモンセンス知識をマイニングするための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-28T06:26:19Z) - Fact-driven Logical Reasoning for Machine Reading Comprehension [82.58857437343974]
私たちは、常識と一時的な知識のヒントの両方を階層的にカバーする動機があります。
具体的には,文の背骨成分を抽出し,知識単位の一般的な定式化を提案する。
次に、事実単位の上にスーパーグラフを構築し、文レベル(事実群間の関係)と実体レベルの相互作用の利点を享受する。
論文 参考訳(メタデータ) (2021-05-21T13:11:13Z) - Dimensions of Commonsense Knowledge [60.49243784752026]
我々は,その関係に特に焦点をあてて,広く普及しているコモンセンスソースを調査した。
我々はこれらの関係を13の知識次元に集約し、それぞれがソースにあるより具体的な関係を抽象化する。
論文 参考訳(メタデータ) (2021-01-12T17:52:39Z) - CoLAKE: Contextualized Language and Knowledge Embedding [81.90416952762803]
文脈型言語と知識埋め込み(CoLAKE)を提案する。
CoLAKEは、言語と知識の両方の文脈化された表現を、拡張された目的によって共同で学習する。
知識駆動タスク、知識探索タスク、言語理解タスクについて実験を行う。
論文 参考訳(メタデータ) (2020-10-01T11:39:32Z) - Inferential Text Generation with Multiple Knowledge Sources and
Meta-Learning [117.23425857240679]
本研究では,テキストティフ・エルス関係のような多種多様なコモンセンスのイベントの推論テキストを生成する問題について検討する。
既存のアプローチでは、トレーニング例からの限られた証拠を使用して、個々の関係について学習するのが一般的である。
この研究では、モデルのための燃料として複数の知識ソースを使用します。
論文 参考訳(メタデータ) (2020-04-07T01:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。