論文の概要: Short Text Classification via Knowledge powered Attention with
Similarity Matrix based CNN
- arxiv url: http://arxiv.org/abs/2002.03350v2
- Date: Sun, 28 Feb 2021 23:40:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:34:06.927215
- Title: Short Text Classification via Knowledge powered Attention with
Similarity Matrix based CNN
- Title(参考訳): 類似行列に基づくCNNを用いた知識駆動注意による短文分類
- Authors: Mingchen Li and Gabtone.Clinton and Yijia Miao and Feng Gao
- Abstract要約: 本稿では,類似度行列に基づく畳み込みニューラルネットワーク(KASM)モデルを用いた知識駆動型アテンションを提案する。
我々は知識グラフ(KG)を用いて短文の意味表現を強化する。
知識の重要性を測定するために,重要な情報を選択するための注意機構を導入する。
- 参考スコア(独自算出の注目度): 6.6723692875904375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Short text is becoming more and more popular on the web, such as Chat
Message, SMS and Product Reviews. Accurately classifying short text is an
important and challenging task. A number of studies have difficulties in
addressing this problem because of the word ambiguity and data sparsity. To
address this issue, we propose a knowledge powered attention with similarity
matrix based convolutional neural network (KASM) model, which can compute
comprehensive information by utilizing the knowledge and deep neural network.
We use knowledge graph (KG) to enrich the semantic representation of short
text, specially, the information of parent-entity is introduced in our model.
Meanwhile, we consider the word interaction in the literal-level between short
text and the representation of label, and utilize similarity matrix based
convolutional neural network (CNN) to extract it. For the purpose of measuring
the importance of knowledge, we introduce the attention mechanisms to choose
the important information. Experimental results on five standard datasets show
that our model significantly outperforms state-of-the-art methods.
- Abstract(参考訳): ショートテキストは、チャットメッセージ、SMS、プロダクトレビューなど、Web上でますます人気が高まっている。
簡潔テキストの正確な分類は重要で困難な作業である。
多くの研究が曖昧さとデータの疎さのためにこの問題に対処するのに苦労している。
そこで本研究では,類似度行列に基づく畳み込みニューラルネットワーク(KASM)モデルを用いて,知識と深層ニューラルネットワークを利用して包括的情報を計算できる知識ベースニューラルネットワークを提案する。
我々は知識グラフ(kg)を用いて短文の意味表現を充実させた。
一方、短いテキストとラベルの表現のリテラルレベルにおける単語の相互作用を考察し、類似性行列に基づく畳み込みニューラルネットワーク(CNN)を用いて抽出する。
知識の重要性を計測するために,重要な情報を選択するための注意機構を導入する。
5つの標準データセットの実験結果から、我々のモデルは最先端の手法よりも大幅に優れていた。
関連論文リスト
- KETM:A Knowledge-Enhanced Text Matching method [0.0]
知識強化テキストマッチングモデル(KETM)と呼ばれるテキストマッチングの新しいモデルを提案する。
テキストワード定義を外部知識として検索するために、Wiktionaryを使用します。
我々は、ゲーティング機構を用いてテキストと知識を融合させ、テキストと知識融合の比率を学習する。
論文 参考訳(メタデータ) (2023-08-11T17:08:14Z) - Neuro-Symbolic Artificial Intelligence (AI) for Intent based Semantic
Communication [85.06664206117088]
6Gネットワークはデータ転送のセマンティクスと有効性(エンドユーザ)を考慮する必要がある。
観測データの背後にある因果構造を学習するための柱としてNeSy AIが提案されている。
GFlowNetは、無線システムにおいて初めて活用され、データを生成する確率構造を学ぶ。
論文 参考訳(メタデータ) (2022-05-22T07:11:57Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Exploiting Contextual Information with Deep Neural Networks [5.787117733071416]
文脈情報は、暗黙的かつ明示的な2つの根本的に異なる方法で活用できることを示します。
この論文では、文脈情報を2つの根本的に異なる方法で活用できることを示し、暗黙的かつ明示的に示す。
論文 参考訳(メタデータ) (2020-06-21T03:40:30Z) - Neural Data-to-Text Generation via Jointly Learning the Segmentation and
Correspondence [48.765579605145454]
対象のテキストを断片単位に明示的に分割し,それらのデータ対応と整合させることを提案する。
結果として生じるアーキテクチャは、ニューラルアテンションモデルと同じ表現力を維持している。
E2EとWebNLGのベンチマークでは、提案モデルがニューラルアテンションよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2020-05-03T14:28:28Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - CrowdTSC: Crowd-based Neural Networks for Text Sentiment Classification [26.75362694599748]
我々は、テキスト知覚分類(CrowdTSC)のためのクラウドベースニューラルネットワークを提案する。
質問をクラウドソーシングプラットフォームにデザインし、テキストでキーワードを収集します。
本稿では,注目に基づくニューラルネットワークと,収集したキーワードを人間のガイダンスとして組み込んだハイブリッドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T14:08:15Z) - Towards Accurate Scene Text Recognition with Semantic Reasoning Networks [52.86058031919856]
本稿では,シーンテキスト認識のための意味推論ネットワーク(SRN)という,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
GSRMはマルチウェイ並列伝送によってグローバルセマンティックコンテキストをキャプチャするために導入された。
正規テキスト,不規則テキスト,非ラテン語長文を含む7つの公開ベンチマークの結果,提案手法の有効性とロバスト性を検証した。
論文 参考訳(メタデータ) (2020-03-27T09:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。