論文の概要: Do Dogs have Whiskers? A New Knowledge Base of hasPart Relations
- arxiv url: http://arxiv.org/abs/2006.07510v1
- Date: Fri, 12 Jun 2020 23:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 02:23:13.710387
- Title: Do Dogs have Whiskers? A New Knowledge Base of hasPart Relations
- Title(参考訳): 犬にはウイスカーがありますか。
ハスパート関係の新しい知識基盤
- Authors: Sumithra Bhakthavatsalam, Kyle Richardson, Niket Tandon, Peter Clark
- Abstract要約: 本稿では,大規模な汎用文コーパスから抽出したhasPart関係の知識ベースについて述べる。
正確(90%の正確さ)、健全(人が言及する可能性のある関係を包含する)、そして一般的な用語を高い範囲でカバーする。
- 参考スコア(独自算出の注目度): 27.361653414949615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new knowledge-base of hasPart relationships, extracted from a
large corpus of generic statements. Complementary to other resources available,
it is the first which is all three of: accurate (90% precision), salient
(covers relationships a person may mention), and has high coverage of common
terms (approximated as within a 10 year old's vocabulary), as well as having
several times more hasPart entries than in the popular ontologies ConceptNet
and WordNet. In addition, it contains information about quantifiers, argument
modifiers, and links the entities to appropriate concepts in Wikipedia and
WordNet. The knowledge base is available at https://allenai.org/data/haspartkb
- Abstract(参考訳): 本稿では,総称文の大規模なコーパスから抽出したhaspart関係の新たな知識ベースを提案する。
他のリソースを補完するものとして、正確(90%の正確さ)、サラエント(人が言及する可能性のある関係性)、共通用語(約10歳未満の語彙)の3つと、一般的なオントロジーのコンセプトネットやwordnetよりも数倍のhaspartエントリがある。
さらに、量化子、引数修飾子に関する情報が含まれ、WikipediaとWordNetの適切な概念にエンティティをリンクする。
知識ベースはhttps://allenai.org/data/haspartkbで利用可能である。
関連論文リスト
- Data-driven Coreference-based Ontology Building [48.995395445597225]
参照解決は、伝統的に個々の文書理解のコンポーネントとして使用される。
よりグローバルな視点で、すべてのドキュメントレベルのコア参照関係から、ドメインについて何が学べるかを探求します。
コードとともに、クリエイティブ・コモンズライセンスの下でコア参照チェーンをリリースします。
論文 参考訳(メタデータ) (2024-10-22T14:30:40Z) - Evaluation of Word Embeddings for the Social Sciences [0.0]
本稿では,37,604の社会科学研究論文に基づく単語埋め込みモデルの作成と評価について述べる。
作成したドメイン固有モデルは,社会科学の概念の大部分をカバーしていることがわかった。
すべての関係型において、意味的関係をより広範囲に網羅している。
論文 参考訳(メタデータ) (2023-02-13T08:23:03Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - BigText-QA: Question Answering over a Large-Scale Hybrid Knowledge Graph [23.739432128095107]
BigText-QAは構造化知識グラフに基づいて質問に答えることができる。
その結果,BigText-QAはニューラルネットワークベースのQAシステムであるDrQAよりも優れており,グラフベースの教師なしQAシステムであるQUESTと競合する結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T09:49:02Z) - One-shot Scene Graph Generation [130.57405850346836]
ワンショットシーングラフ生成タスクに対して,複数の構造化知識(関係知識知識)を提案する。
提案手法は既存の最先端手法よりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2022-02-22T11:32:59Z) - Taxonomy Enrichment with Text and Graph Vector Representations [61.814256012166794]
我々は,既存の分類学に新たな語を加えることを目的とした分類学の豊かさの問題に対処する。
我々は,この課題に対して,少ない労力で高い結果を得られる新しい手法を提案する。
我々は、異なるデータセットにわたる最先端の結果を達成し、ミスの詳細なエラー分析を提供する。
論文 参考訳(メタデータ) (2022-01-21T09:01:12Z) - Commonsense Knowledge in Word Associations and ConceptNet [37.751909219863585]
本稿では,ConcpetNet と SWOW という2つの大規模知識資源の詳細な比較を行った。
本稿では,2つのグラフの構造,重なり合い,相違点と,それらが状況的常識的知識をエンコードする程度について検討する。
論文 参考訳(メタデータ) (2021-09-20T06:06:30Z) - CogNet: Bridging Linguistic Knowledge, World Knowledge and Commonsense
Knowledge [22.01447874535337]
CogNetは3種類の知識を統合するための知識ベース(KB)である。
FrameNetからの言語知識。状況、オブジェクト、イベントをスキーマ的に記述する。
特定のインスタンスに関する明確な知識を提供するYAGO、Freebase、DBpedia、Wikidataの世界の知識。
暗黙の一般的な事実を記述するConceptNetの常識知識。
論文 参考訳(メタデータ) (2021-03-03T02:47:18Z) - Computational linguistic assessment of textbook and online learning
media by means of threshold concepts in business education [59.003956312175795]
言語学的観点では、しきい値の概念は特別な語彙の例であり、特定の言語的特徴を示す。
ビジネス教育における63のしきい値の概念のプロファイルは、教科書、新聞、ウィキペディアで調査されている。
3種類のリソースは、しきい値の概念のプロファイルから区別できる。
論文 参考訳(メタデータ) (2020-08-05T12:56:16Z) - Inferential Text Generation with Multiple Knowledge Sources and
Meta-Learning [117.23425857240679]
本研究では,テキストティフ・エルス関係のような多種多様なコモンセンスのイベントの推論テキストを生成する問題について検討する。
既存のアプローチでは、トレーニング例からの限られた証拠を使用して、個々の関係について学習するのが一般的である。
この研究では、モデルのための燃料として複数の知識ソースを使用します。
論文 参考訳(メタデータ) (2020-04-07T01:49:18Z) - Entity Extraction from Wikipedia List Pages [2.3605348648054463]
私たちは、DBpediaをバックボーンとして、カテゴリとリストページから大規模な分類を構築します。
遠隔監視により、リストページ内の新しいエンティティの識別のためのトレーニングデータを抽出する。
我々はDBpediaを7.5万の新しい型ステートメントと380万の高精度な新しい事実で拡張する。
論文 参考訳(メタデータ) (2020-03-11T07:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。