論文の概要: Dimensions of Commonsense Knowledge
- arxiv url: http://arxiv.org/abs/2101.04640v1
- Date: Tue, 12 Jan 2021 17:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 07:12:40.602437
- Title: Dimensions of Commonsense Knowledge
- Title(参考訳): 常識知識の次元
- Authors: Filip Ilievski, Alessandro Oltramari, Kaixin Ma, Bin Zhang, Deborah L.
McGuinness, Pedro Szekely
- Abstract要約: 我々は,その関係に特に焦点をあてて,広く普及しているコモンセンスソースを調査した。
我々はこれらの関係を13の知識次元に集約し、それぞれがソースにあるより具体的な関係を抽象化する。
- 参考スコア(独自算出の注目度): 60.49243784752026
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Commonsense knowledge is essential for many AI applications, including those
in natural language processing, visual processing, and planning. Consequently,
many sources that include commonsense knowledge have been designed and
constructed over the past decades. Recently, the focus has been on large
text-based sources, which facilitate easier integration with neural (language)
models and application on textual tasks, typically at the expense of the
semantics of the sources. Such practice prevents the harmonization of these
sources, understanding their coverage and gaps, and may hinder the semantic
alignment of their knowledge with downstream tasks. Efforts to consolidate
commonsense knowledge have yielded partial success, but provide no clear path
towards a comprehensive consolidation of existing commonsense knowledge.
The ambition of this paper is to organize these sources around a common set
of dimensions of commonsense knowledge. For this purpose, we survey a wide
range of popular commonsense sources with a special focus on their relations.
We consolidate these relations into 13 knowledge dimensions, each abstracting
over more specific relations found in sources. This consolidation allows us to
unify the separate sources and to compute indications of their coverage,
overlap, and gaps with respect to the knowledge dimensions. Moreover, we
analyze the impact of each dimension on downstream reasoning tasks that require
commonsense knowledge, observing that the temporal and desire/goal dimensions
are very beneficial for reasoning on current downstream tasks, while
distinctness and lexical knowledge have little impact. These results reveal
focus towards some dimensions in current evaluation, and potential neglect of
others.
- Abstract(参考訳): commonsenseの知識は、自然言語処理、ビジュアル処理、計画など、多くのaiアプリケーションにとって不可欠である。
そのため、過去数十年にわたって、常識知識を含む多くの資料が設計され、構築されてきた。
近年、大きなテキストベースのソースに焦点が当てられ、ニューラルネットワーク(言語)モデルとの統合が容易になり、典型的にはソースのセマンティクスを犠牲にして、テキストのタスクへの応用が容易になっている。
このようなプラクティスは、これらのソースの調和を防ぎ、そのカバレッジとギャップを理解し、ダウンストリームタスクと知識のセマンティックアライメントを妨げる可能性がある。
コモンセンス知識の統合は部分的成功をもたらしたが、既存のコモンセンス知識の包括的統合への明確な道筋はない。
本稿では,コモンセンス知識の共通次元の周辺にこれらの情報源を整理することを目的とする。
この目的のために,我々は,その関係に特に焦点をあてた,幅広い一般的なコモンセンスソースを調査した。
我々はこれらの関係を13の知識次元に集約し、それぞれがソースにあるより具体的な関係を抽象化する。
この統合により、私たちは別々のソースを統一し、それらのカバレッジ、重複、および知識次元に関するギャップの表示を計算することができます。
さらに,コモンセンス知識を必要とする下流推論課題に対する各次元の影響を分析し,時間的・欲求的次元が下流課題の推論に非常に有益であるのに対し,識別性や語彙的知識は影響が少ないことを観察した。
これらの結果は、現在の評価におけるいくつかの次元に焦点をあて、他を無視する可能性を明らかにしている。
関連論文リスト
- What Really is Commonsense Knowledge? [58.5342212738895]
我々は、既存のコモンセンス知識の定義を調査し、概念を定義するための3つのフレームワークに基礎を置き、それらをコモンセンス知識の統一的な定義に統合する。
次に、アノテーションと実験のための統合された定義をCommonsenseQAとCommonsenseQA 2.0データセットで使用します。
本研究は,2つのデータセットには非常識知識のインスタンスが多数存在し,これら2つのサブセットに対して大きな性能差があることを示す。
論文 参考訳(メタデータ) (2024-11-06T14:54:19Z) - Towards Knowledge-Grounded Natural Language Understanding and Generation [1.450405446885067]
この論文は、トランスフォーマーモデルによる自然言語の理解と生成が、モデルに知識表現を組み込むことの利点について考察する。
この論文では、関連性のある、最新のエンティティの知識を取り入れることで、偽ニュース検出の恩恵を受ける。
パラメトリックな知識や蒸留された知識といった他の一般的な知識は、多言語および多言語的な知識集約的なタスクを強化することが確立されている。
論文 参考訳(メタデータ) (2024-03-22T17:32:43Z) - Large Language Models as Source Planner for Personalized
Knowledge-grounded Dialogue [72.26474540602517]
SAFARIは、教師なしと教師なしの両方の設定で計画し、理解し、導入するための新しいフレームワークである。
我々は、パーソナライズされた知識ベース対話データセットtextittextbfKnowledge textbfBehind textbfPersona(textbfKBP)を構築する。
KBPデータセットによる実験結果から,SAFARIフレームワークはペルソナ一貫性と知識強化の応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2023-10-13T03:38:38Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Materialized Knowledge Bases from Commonsense Transformers [8.678138390075077]
この方法で生成されたコモンセンス知識の実体化されたリソースは公開されていない。
本稿では, このギャップを埋め, 物質化資源を用いて, 精度とリコールの観点から, このアプローチの可能性の詳細な分析を行う。
我々は、一般的な問題を特定し、実体化されたリソースによって実現されるユースケースの概要を述べる。
論文 参考訳(メタデータ) (2021-12-29T20:22:05Z) - Commonsense Knowledge in Word Associations and ConceptNet [37.751909219863585]
本稿では,ConcpetNet と SWOW という2つの大規模知識資源の詳細な比較を行った。
本稿では,2つのグラフの構造,重なり合い,相違点と,それらが状況的常識的知識をエンコードする程度について検討する。
論文 参考訳(メタデータ) (2021-09-20T06:06:30Z) - Learning Contextual Causality from Time-consecutive Images [84.26437953699444]
因果知識は多くの人工知能システムにとって重要である。
本稿では,視覚信号から文脈因果関係を学習する可能性について検討する。
まず,高品質なデータセットvis-causalを提案し,ビデオから有意義な因果知識を自動的に発見できることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T20:24:48Z) - Inferential Text Generation with Multiple Knowledge Sources and
Meta-Learning [117.23425857240679]
本研究では,テキストティフ・エルス関係のような多種多様なコモンセンスのイベントの推論テキストを生成する問題について検討する。
既存のアプローチでは、トレーニング例からの限られた証拠を使用して、個々の関係について学習するのが一般的である。
この研究では、モデルのための燃料として複数の知識ソースを使用します。
論文 参考訳(メタデータ) (2020-04-07T01:49:18Z) - Knowledge-Based Matching of $n$-ary Tuples [9.328991021103294]
我々は,語彙に基づく方法論を拡充した知識ベースにおけるナリー規則に焦点をあてる。
我々は,4つの実世界の資料から50435の母語語彙間のアライメントを探索し,薬理ゲノミクスの領域について検討した。
論文 参考訳(メタデータ) (2020-02-19T11:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。