論文の概要: Generalizable Neuro-symbolic Systems for Commonsense Question Answering
- arxiv url: http://arxiv.org/abs/2201.06230v1
- Date: Mon, 17 Jan 2022 06:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:31:28.802087
- Title: Generalizable Neuro-symbolic Systems for Commonsense Question Answering
- Title(参考訳): コモンセンス質問応答のための一般化型ニューロシンボリックシステム
- Authors: Alessandro Oltramari, Jonathan Francis, Filip Ilievski, Kaixin Ma,
Roshanak Mirzaee
- Abstract要約: この章では、言語理解に適したニューロシンボリックモデルが、下流タスクにおけるドメインの一般化性と堅牢性を実現する方法について説明する。
ニューラルネットワークモデルと知識グラフを統合するための様々な方法について議論する。
- 参考スコア(独自算出の注目度): 67.72218865519493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This chapter illustrates how suitable neuro-symbolic models for language
understanding can enable domain generalizability and robustness in downstream
tasks. Different methods for integrating neural language models and knowledge
graphs are discussed. The situations in which this combination is most
appropriate are characterized, including quantitative evaluation and
qualitative error analysis on a variety of commonsense question answering
benchmark datasets.
- Abstract(参考訳): この章では、言語理解に適したニューロシンボリックモデルが、下流タスクにおけるドメインの一般化性と堅牢性を実現する方法について説明する。
ニューラルネットワークモデルと知識グラフを統合するさまざまな方法について議論する。
この組み合わせが最も適している状況は、様々なコモンセンス質問応答ベンチマークデータセットの定量的評価や定性的誤り分析などである。
関連論文リスト
- CoSy: Evaluating Textual Explanations of Neurons [5.696573924249008]
ディープニューラルネットワーク(DNN)の複雑な性質を理解する上で重要な側面は、潜在表現の中で学習された概念を説明する能力である。
潜在ニューロンのテキスト説明の質を評価するための新しいフレームワークであるCoSyを紹介する。
論文 参考訳(メタデータ) (2024-05-30T17:59:04Z) - Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - Towards Generating Informative Textual Description for Neurons in
Language Models [6.884227665279812]
本稿では,ニューロンにテキスト記述を結び付けるフレームワークを提案する。
特に,提案手法が75%精度@2,50%リコール@2を実現していることを示す。
論文 参考訳(メタデータ) (2024-01-30T04:06:25Z) - Towards a fuller understanding of neurons with Clustered Compositional
Explanations [8.440673378588489]
本稿では、構成説明とクラスタリングを組み合わせたクラスタ化と、ニューロンの行動の幅広いスペクトルを近似する新しい探索を提案する。
本稿では,これらの手法を複数のアクティベーション領域に適用する際の問題点を定義し,提案アルゴリズムを用いて探索可能な洞察を解析し,異なるアルゴリズムで返される説明を研究するために使用できるデシラタ質を提案する。
論文 参考訳(メタデータ) (2023-10-27T19:39:50Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - Benchmarking Compositionality with Formal Languages [64.09083307778951]
我々は,NLPにおける大規模ニューラルモデルが,データから学習しながら,原始概念をより大規模な新しい組み合わせに組み込むことができるかどうかを検討する。
多くのトランスデューサをランダムにサンプリングすることにより、ニューラルネットワークによる合成関係の学習性に寄与する特性を探索する。
モデルは完全に関係を学習するか全く学習しないかが分かる。鍵となるのはトランジッションカバレッジであり、トランジッション毎に400の例でソフトな学習可能性制限を設定する。
論文 参考訳(メタデータ) (2022-08-17T10:03:18Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。