論文の概要: DISCOS: Bridging the Gap between Discourse Knowledge and Commonsense
Knowledge
- arxiv url: http://arxiv.org/abs/2101.00154v2
- Date: Thu, 18 Feb 2021 12:43:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 11:15:38.487152
- Title: DISCOS: Bridging the Gap between Discourse Knowledge and Commonsense
Knowledge
- Title(参考訳): DISCOS: 談話知識と常識知識のギャップを埋める
- Authors: Tianqing Fang, Hongming Zhang, Weiqi Wang, Yangqiu Song, Bin He
- Abstract要約: 代替コモンセンス知識獲得フレームワーク DISCOS を提案します。
DISCOSは高価なコモンセンス知識をより手頃な言語知識資源に投入する。
我々は,ASERの中核部にATOMICを投入することにより,3.4M ATOMICライクな推論コモンセンス知識を得ることができる。
- 参考スコア(独自算出の注目度): 42.08569149041291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commonsense knowledge is crucial for artificial intelligence systems to
understand natural language. Previous commonsense knowledge acquisition
approaches typically rely on human annotations (for example, ATOMIC) or text
generation models (for example, COMET.) Human annotation could provide
high-quality commonsense knowledge, yet its high cost often results in
relatively small scale and low coverage. On the other hand, generation models
have the potential to automatically generate more knowledge. Nonetheless,
machine learning models often fit the training data well and thus struggle to
generate high-quality novel knowledge. To address the limitations of previous
approaches, in this paper, we propose an alternative commonsense knowledge
acquisition framework DISCOS (from DIScourse to COmmonSense), which
automatically populates expensive complex commonsense knowledge to more
affordable linguistic knowledge resources. Experiments demonstrate that we can
successfully convert discourse knowledge about eventualities from ASER, a
large-scale discourse knowledge graph, into if-then commonsense knowledge
defined in ATOMIC without any additional annotation effort. Further study
suggests that DISCOS significantly outperforms previous supervised approaches
in terms of novelty and diversity with comparable quality. In total, we can
acquire 3.4M ATOMIC-like inferential commonsense knowledge by populating ATOMIC
on the core part of ASER. Codes and data are available at
https://github.com/HKUST-KnowComp/DISCOS-commonsense.
- Abstract(参考訳): 人工知能システムが自然言語を理解するためには、常識知識が不可欠である。
従来の常識知識獲得アプローチは一般的に人間のアノテーション(例えばATOMIC)やテキスト生成モデル(例えばCOMET)に依存している。
人間のアノテーションは高品質のコモンセンス知識を提供する可能性があるが、その高コストはしばしば比較的小さなスケールと低いカバレッジをもたらす。
一方、生成モデルは、より多くの知識を自動生成する可能性がある。
それでも、機械学習モデルはトレーニングデータによく適合するため、高品質な新しい知識を生み出すのに苦労する。
本稿では,従来のアプローチの限界に対処するために,高価な複雑なコモンセンス知識を,より手頃な言語知識資源に自動的に投入する,代替のコモンセンス知識獲得フレームワークdisCOSを提案する。
実験により, 事象に関する談話知識を, 大規模談話知識グラフASERから, 付加的なアノテーションを使わずにATOMICで定義したif-then Commonsense知識に変換することができた。
さらなる研究は、ディスコが以前の監督されたアプローチを、同等の品質で新しさと多様性の観点から大きく上回っていることを示唆している。
総じて,ASERの中核部にATOMICを投入することにより,3.4MのATOMIC様推論コモンセンス知識を得ることができる。
コードとデータはhttps://github.com/HKUST-KnowComp/DISCOS-commonsenseで入手できる。
関連論文リスト
- CANDLE: Iterative Conceptualization and Instantiation Distillation from Large Language Models for Commonsense Reasoning [45.62134354858683]
CANDLEは、コモンセンス知識ベースに対する概念化とインスタンス化を反復的に行うフレームワークである。
CANDLEをATOMICに適用することにより、600万の概念化と三重項のインスタンス化を含む総合的な知識基盤を構築する。
論文 参考訳(メタデータ) (2024-01-14T13:24:30Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Understanding Few-Shot Commonsense Knowledge Models [39.31365020474205]
トレーニングの常識知識モデルを数ショットで調査します。
数発の訓練システムから得られた知識に対する人間の品質評価は、完全に教師されたシステムから得られた知識の6%以内のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-01-01T19:01:09Z) - Towards a Universal Continuous Knowledge Base [49.95342223987143]
複数のニューラルネットワークからインポートされた知識を格納できる継続的知識基盤を構築する方法を提案する。
テキスト分類実験は有望な結果を示す。
我々は複数のモデルから知識ベースに知識をインポートし、そこから融合した知識を単一のモデルにエクスポートする。
論文 参考訳(メタデータ) (2020-12-25T12:27:44Z) - TransOMCS: From Linguistic Graphs to Commonsense Knowledge [109.36596335148091]
従来のコモンセンス知識を取得するには、手間と費用のかかる人間のアノテーションが必要である。
我々は,言語パターンから得られた安価な知識を高価なコモンセンス知識に移行することを目的として,言語グラフからコモンセンス知識をマイニングする実践的な方法を探究する。
実験により,言語知識のコモンセンス知識への伝達可能性や,量,新規性,品質の観点から提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-05-01T04:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。