論文の概要: A Multi-Grained Self-Interpretable Symbolic-Neural Model For
Single/Multi-Labeled Text Classification
- arxiv url: http://arxiv.org/abs/2303.02860v1
- Date: Mon, 6 Mar 2023 03:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:31:40.909807
- Title: A Multi-Grained Self-Interpretable Symbolic-Neural Model For
Single/Multi-Labeled Text Classification
- Title(参考訳): シングル/マルチラベルテキスト分類のための多段階自己解釈型記号ニューラルモデル
- Authors: Xiang Hu, Xinyu Kong, Kewei Tu
- Abstract要約: 本稿では,テキストのクラスラベルを選挙区木から明示的に予測するシンボリック・ニューラルモデルを提案する。
構造化言語モデルが自己教師型で選挙区木を予測することを学ぶと、訓練データとして、原文と文レベルのラベルしか必要としない。
実験により,下流タスクにおける予測精度が向上できることが実証された。
- 参考スコア(独自算出の注目度): 29.075766631810595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks based on layer-stacking architectures have historically
suffered from poor inherent interpretability. Meanwhile, symbolic probabilistic
models function with clear interpretability, but how to combine them with
neural networks to enhance their performance remains to be explored. In this
paper, we try to marry these two systems for text classification via a
structured language model. We propose a Symbolic-Neural model that can learn to
explicitly predict class labels of text spans from a constituency tree without
requiring any access to span-level gold labels. As the structured language
model learns to predict constituency trees in a self-supervised manner, only
raw texts and sentence-level labels are required as training data, which makes
it essentially a general constituent-level self-interpretable classification
model. Our experiments demonstrate that our approach could achieve good
prediction accuracy in downstream tasks. Meanwhile, the predicted span labels
are consistent with human rationales to a certain degree.
- Abstract(参考訳): 層積み上げアーキテクチャに基づくディープニューラルネットワークは、歴史的に内在的な解釈性に乏しい。
一方、シンボリック確率モデルは明確な解釈可能性をもって機能するが、ニューラルネットワークと組み合わせて性能を向上させる方法については研究が続けられている。
本稿では, 構造化言語モデルを用いて, これら2つのシステムを用いてテキスト分類を行う。
本研究では,スパンレベルゴールドラベルへのアクセスを必要とせずに,構成木からテキストスパンのクラスラベルを明示的に予測できるシンボリックニューラルモデルを提案する。
構造化言語モデルが自己教師型で選挙区木を予測することを学ぶと、原文と文レベルのラベルのみが訓練データとして必要となり、基本的には構成レベルの自己解釈可能な分類モデルとなる。
実験により,下流タスクにおける予測精度が向上できることが実証された。
一方、予測されたスパンラベルは人間の合理性とある程度一致している。
関連論文リスト
- Hierarchical Interpretation of Neural Text Classification [31.95426448656938]
本稿では,Hintと呼ばれる階層型インタプリタ型ニューラルテキスト分類器を提案する。
レビューデータセットとニュースデータセットの両方の実験結果から,提案手法は既存の最先端テキスト分類器と同等のテキスト分類結果が得られることが示された。
論文 参考訳(メタデータ) (2022-02-20T11:15:03Z) - Computing Class Hierarchies from Classifiers [12.631679928202516]
ニューラルネットワークからクラス階層を自動的に取得する新しいアルゴリズムを提案する。
我々のアルゴリズムは、よく知られたディープニューラルネットワークモデルに驚くほど優れた階層を生成する。
論文 参考訳(メタデータ) (2021-12-02T13:01:04Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Seeing Both the Forest and the Trees: Multi-head Attention for Joint
Classification on Different Compositional Levels [15.453888735879525]
自然言語では、単語は関連して文を構成するために使用される。
より低い言語的コンポーネントと高い言語的コンポーネントを明確に結び付けるディープニューラルネットワークアーキテクチャを設計する。
我々のモデルであるMHALは、異なるレベルの粒度でそれらを同時に解くことを学習していることを示す。
論文 参考訳(メタデータ) (2020-11-01T10:44:46Z) - A Framework to Learn with Interpretation [2.3741312212138896]
本稿では,予測モデルとその関連解釈モデルを共同で学習する新しい枠組みを提案する。
我々は,選択した隠れ層の出力を入力として取り込む,高レベル属性関数の小型辞書を求める。
学習した機能を視覚化する詳細なパイプラインも開発されている。
論文 参考訳(メタデータ) (2020-10-19T09:26:28Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Generating Hierarchical Explanations on Text Classification via Feature
Interaction Detection [21.02924712220406]
特徴的相互作用を検出することによって階層的な説明を構築する。
このような説明は、単語とフレーズが階層の異なるレベルでどのように結合されるかを視覚化する。
実験は、モデルに忠実であり、人間に解釈可能な説明を提供する上で、提案手法の有効性を示す。
論文 参考訳(メタデータ) (2020-04-04T20:56:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。