論文の概要: NegatER: Unsupervised Discovery of Negatives in Commonsense Knowledge
Bases
- arxiv url: http://arxiv.org/abs/2011.07497v2
- Date: Fri, 10 Sep 2021 03:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 06:48:03.896673
- Title: NegatER: Unsupervised Discovery of Negatives in Commonsense Knowledge
Bases
- Title(参考訳): NegatER:コモンセンス知識ベースにおける否定の発見
- Authors: Tara Safavi, Jing Zhu, Danai Koutra
- Abstract要約: NegatERは、コンテキスト言語モデルを使用して、コモンセンスKBの潜在的なネガティブをランク付けするフレームワークである。
LMの肯定的な知識にのみ依存し、根本的な否定的な例を必要としない。
実験により、NegatERはより文法的、一貫性があり、情報的である負の値を生成することが示された。
- 参考スコア(独自算出の注目度): 16.986011107071477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Codifying commonsense knowledge in machines is a longstanding goal of
artificial intelligence. Recently, much progress toward this goal has been made
with automatic knowledge base (KB) construction techniques. However, such
techniques focus primarily on the acquisition of positive (true) KB statements,
even though negative (false) statements are often also important for
discriminative reasoning over commonsense KBs. As a first step toward the
latter, this paper proposes NegatER, a framework that ranks potential negatives
in commonsense KBs using a contextual language model (LM). Importantly, as most
KBs do not contain negatives, NegatER relies only on the positive knowledge in
the LM and does not require ground-truth negative examples. Experiments
demonstrate that, compared to multiple contrastive data augmentation
approaches, NegatER yields negatives that are more grammatical, coherent, and
informative -- leading to statistically significant accuracy improvements in a
challenging KB completion task and confirming that the positive knowledge in
LMs can be "re-purposed" to generate negative knowledge.
- Abstract(参考訳): 機械における常識知識の符号化は、人工知能の長年の目標である。
近年,自動知識ベース(KB)構築技術により,この目標に向けての進歩が進んでいる。
しかしながら、このような手法は主に正(真)のKB文の取得に焦点が当てられているが、負(偽)のKB文はコモンセンスKBに対する差別的推論においても重要であることが多い。
後者への第一歩として,コンテクスト言語モデル(lm)を用いて,commonsense kbsの潜在的な負をランク付けするフレームワークnegaterを提案する。
重要なことに、ほとんどのKBは負を含まないため、NegatERはLMの正の知識にのみ依存し、根本的な負の例を必要としない。
実験により、複数の対照的なデータ拡張アプローチと比較して、NegatERはより文法的、一貫性があり、情報的である負の値を出力し、挑戦的なKB完了タスクにおいて統計的に有意な精度の改善をもたらし、LMにおける肯定的な知識が負の知識を生成するために「再目的」できることを確認した。
関連論文リスト
- Large Language Models as Reliable Knowledge Bases? [60.25969380388974]
大きな言語モデル(LLM)は潜在的な知識ベース(KB)と見なすことができる。
本研究は、信頼性の高いLLM-as-KBが満たすべき基準を定義し、事実性と一貫性に焦点をあてる。
ICLや微調整のような戦略は、LLMをより良くKBにするには失敗している。
論文 参考訳(メタデータ) (2024-07-18T15:20:18Z) - Translate Meanings, Not Just Words: IdiomKB's Role in Optimizing
Idiomatic Translation with Language Models [57.60487455727155]
idiomsは非構成的な性質を持ち、Transformerベースのシステムに特別な課題を提起する。
既存の知識ベース(KB)を使ってイディオムを置き換える伝統的な手法は、しばしばスケールとコンテキストの認識を欠いている。
大規模なLMを用いて開発した多言語イディオムKB (IdiomKB) を提案する。
このKBはBLOOMZ (7.1B)、Alpaca (7B)、InstructGPT (6.7B)のようなより小さなモデルによるより良い翻訳を促進する
論文 参考訳(メタデータ) (2023-08-26T21:38:31Z) - CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering [56.592385613002584]
ゼロショットコモンセンス質問応答の課題に対処するために,概念化強化推論器(CAR)を提案する。
CARは、CommonSenseの知識を多くの高レベルなインスタンスに抽象化し、CommonSenseの知識ベースの範囲を拡大する。
CARは、既存のメソッドよりも、ゼロショットのコモンセンスシナリオに関する質問に答えることにより、より堅牢に一般化する。
論文 参考訳(メタデータ) (2023-05-24T08:21:31Z) - Completeness, Recall, and Negation in Open-World Knowledge Bases: A
Survey [15.221057217833492]
KBにおける完全性、リコール、否定に関する知識をどのように表現し、抽出し、推論するかについて議論する。
本調査は,(1)KB品質の追跡,抽出作業の集中,下流アプリケーション構築に関心のある実践者,(2)オープンワールドの前提を超えた知識基盤技術の現状を理解したいと考えるデータ管理,知識ベース,セマンティックWeb研究者の2つのタイプを対象としている。
論文 参考訳(メタデータ) (2023-05-09T12:50:16Z) - Evaluating Language Models for Knowledge Base Completion [32.87131159997359]
教師なし知識ベース補完(KBC)のための言語モデル(LM)が最近提案されている。
我々は,LMのKBCポテンシャルを現実的に評価するための,新しい,より挑戦的なベンチマークデータセットと方法論を導入する。
LMトレーニングにおいて,ほとんどの事実が直接観察されなかった関係においても,LMは驚くほど強い一般化能力を有することがわかった。
論文 参考訳(メタデータ) (2023-03-20T13:14:59Z) - Evaluate Confidence Instead of Perplexity for Zero-shot Commonsense
Reasoning [85.1541170468617]
本稿では,コモンセンス推論の性質を再考し,新しいコモンセンス推論尺度であるNon-Replacement Confidence(NRC)を提案する。
提案手法は,2つのコモンセンス推論ベンチマークデータセットと,さらに7つのコモンセンス質問応答データセットに対してゼロショット性能を向上する。
論文 参考訳(メタデータ) (2022-08-23T14:42:14Z) - UnCommonSense: Informative Negative Knowledge about Everyday Concepts [36.32871869386023]
人間の常識の重要な部分は概念に当てはまらない性質に関するものであるが、既存のCSKBは肯定的な文のみを格納している。
本稿では,情報的否定的常識文を実現するUNCOMMONSENSEフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-19T12:14:02Z) - A Review on Language Models as Knowledge Bases [55.035030134703995]
近年,知識ベース (KB) としての事前訓練言語モデル (LM) の利用に対する,NLPコミュニティへの関心が高まっている。
論文 参考訳(メタデータ) (2022-04-12T18:35:23Z) - Faithful Embeddings for Knowledge Base Queries [97.5904298152163]
理想的知識ベース(KB)の帰納的閉包は、KBが答えられる論理的クエリを正確に含んでいる。
実際にはKBは不完全かつ過剰な仕様であり、現実の答えを持つクエリには答えられない。
この新たなQEモジュールをニューラルな質問応答システムに挿入すると、最先端技術よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2020-04-07T19:25:16Z) - Negative Statements Considered Useful [33.255018506270765]
本論では, 持たない有能な言明を明確に述べる。
このような無効な文が豊富にあるため、それらをコンパイルするためには、給与によるランク付けに対処する必要がある。
本稿では,否定文のコンパイルとランク付けのための統計的推論手法を提案する。
論文 参考訳(メタデータ) (2020-01-13T17:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。