論文の概要: Advanced Semantics for Commonsense Knowledge Extraction
- arxiv url: http://arxiv.org/abs/2011.00905v3
- Date: Tue, 26 Jul 2022 15:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 10:44:37.841962
- Title: Advanced Semantics for Commonsense Knowledge Extraction
- Title(参考訳): コモンセンス知識抽出のための高度なセマンティクス
- Authors: Tuan-Phong Nguyen, Simon Razniewski, Gerhard Weikum
- Abstract要約: 概念とその特性に関する常識知識(CSK)は、堅牢なチャットボットのようなAIアプリケーションに有用である。
本稿では,CSKアサーションの大規模知識ベース(KB)を自動構築するAscentという手法を提案する。
Ascent は部分群とアスペクトで合成概念をキャプチャし、セマンティック・ファセットでアサーションを精製することで三重項を超えていく。
- 参考スコア(独自算出の注目度): 32.43213645631101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commonsense knowledge (CSK) about concepts and their properties is useful for
AI applications such as robust chatbots. Prior works like ConceptNet, TupleKB
and others compiled large CSK collections, but are restricted in their
expressiveness to subject-predicate-object (SPO) triples with simple concepts
for S and monolithic strings for P and O. Also, these projects have either
prioritized precision or recall, but hardly reconcile these complementary
goals. This paper presents a methodology, called Ascent, to automatically build
a large-scale knowledge base (KB) of CSK assertions, with advanced
expressiveness and both better precision and recall than prior works. Ascent
goes beyond triples by capturing composite concepts with subgroups and aspects,
and by refining assertions with semantic facets. The latter are important to
express temporal and spatial validity of assertions and further qualifiers.
Ascent combines open information extraction with judicious cleaning using
language models. Intrinsic evaluation shows the superior size and quality of
the Ascent KB, and an extrinsic evaluation for QA-support tasks underlines the
benefits of Ascent. A web interface, data and code can be found at
https://ascent.mpi-inf.mpg.de/.
- Abstract(参考訳): 概念とその特性に関する常識知識(CSK)は、堅牢なチャットボットのようなAIアプリケーションに有用である。
ConceptNet、TupleKBなどの以前の作品では大規模なCSKコレクションがコンパイルされていたが、SとOの単純な概念とPとOのモノリシック文字列の単純な概念で表現力に制限されている。
本稿では,CSKアサーションの大規模知識ベース(KB)を自動的に構築するAscentという手法を提案する。
Ascent は部分群とアスペクトで合成概念をキャプチャし、セマンティックファセットでアサーションを精製することで三重項を超えていく。
後者は、アサーションの時間的および空間的妥当性とさらなる等式を表現するために重要である。
Ascentは、オープン情報抽出と言語モデルを用いた司法的クリーニングを組み合わせる。
内在的評価は、Ascent KBのより優れたサイズと品質を示し、QA支援タスクの外部的評価はAscentの利点を裏付けるものである。
webインターフェース、データ、コードはhttps://ascent.mpi-inf.mpg.de/にある。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - CSCNET: Class-Specified Cascaded Network for Compositional Zero-Shot
Learning [62.090051975043544]
属性とオブジェクト(A-O)の絡み合いは、合成ゼロショット学習(CZSL)の基本的かつ重要な問題である
CZSL(Class-specified Cascaded Network, CSCNet)のための新しいA-O不整合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T14:18:41Z) - CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering [56.592385613002584]
ゼロショットコモンセンス質問応答の課題に対処するために,概念化強化推論器(CAR)を提案する。
CARは、CommonSenseの知識を多くの高レベルなインスタンスに抽象化し、CommonSenseの知識ベースの範囲を拡大する。
CARは、既存のメソッドよりも、ゼロショットのコモンセンスシナリオに関する質問に答えることにより、より堅牢に一般化する。
論文 参考訳(メタデータ) (2023-05-24T08:21:31Z) - TIARA: Multi-grained Retrieval for Robust Question Answering over Large
Knowledge Bases [20.751369684593985]
TIARAは、PLMやオラクルエンティティアノテーションなどを含む以前のSOTAよりも、GrailQAおよびWebQuestionsSP上の少なくとも4.1と1.1のF1ポイントが優れている。
論文 参考訳(メタデータ) (2022-10-24T02:41:10Z) - Extracting Cultural Commonsense Knowledge at Scale [28.856786775318486]
CANDLEは、高品質な文化的常識知識を大規模に抽出するためのエンドツーエンドの方法論である。
3つの領域(地理学、宗教、職業)といくつかの文化的側面の集合体にアサーションをまとめる。
分類に基づくフィルタリングと面白さのスコア付けのための司法手法を含む。
論文 参考訳(メタデータ) (2022-10-14T12:53:57Z) - Supporting Vision-Language Model Inference with Confounder-pruning Knowledge Prompt [71.77504700496004]
視覚言語モデルは、オープンセットの視覚概念を扱うために、画像とテキストのペアを共通の空間に整列させることで事前訓練される。
事前訓練されたモデルの転送可能性を高めるため、最近の研究では、固定または学習可能なプロンプトが採用されている。
しかし、どのようにして、どのプロンプトが推論性能を改善するのかは、まだ不明である。
論文 参考訳(メタデータ) (2022-05-23T07:51:15Z) - Augmenting Pre-trained Language Models with QA-Memory for Open-Domain
Question Answering [38.071375112873675]
質問応答型エンコーダデコーダモデルの提案と事前学習戦略について述べる。
これにより、シングルホップのQAタスクにおいて、以前のQA検索方法よりも優れたエンドツーエンドシステムが得られる。
論文 参考訳(メタデータ) (2022-04-10T02:33:00Z) - Refined Commonsense Knowledge from Large-Scale Web Contents [24.10708502359049]
概念とその特性に関する常識知識(CSK)は、AIアプリケーションに有用である。
本稿では,CSKアサーションの大規模知識ベース(KB)を自動構築するASCENT++を提案する。
論文 参考訳(メタデータ) (2021-11-30T20:26:09Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。