論文の概要: Improving Online Forums Summarization via Unifying Hierarchical
Attention Networks with Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2103.13587v1
- Date: Thu, 25 Mar 2021 03:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 22:39:43.617991
- Title: Improving Online Forums Summarization via Unifying Hierarchical
Attention Networks with Convolutional Neural Networks
- Title(参考訳): 階層型注意ネットワークと畳み込みニューラルネットワークの統合によるオンラインフォーラム要約の改善
- Authors: Sansiri Tarnpradab, Fereshteh Jafariakinabad and Kien A. Hua
- Abstract要約: 本研究の目的は,オンラインフォーラムのためのテキスト要約の自動作成である。
階層的注意ネットワーク、双方向長期記憶(Bi-LSTM)、畳み込みニューラルネットワーク(CNN)に基づくフレームワークを提案する。
このスキームでは、Bi-LSTMは文全体とスレッド全体の情報を含む表現を導出する。
注意機構はcnnの上に適用され、望ましい要約に寄与する重要なユニットをキャプチャするハイレベルな表現をさらに強調する。
- 参考スコア(独自算出の注目度): 4.5591913587473964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online discussion forums are prevalent and easily accessible, thus allowing
people to share ideas and opinions by posting messages in the discussion
threads. Forum threads that significantly grow in length can become difficult
for participants, both newcomers and existing, to grasp main ideas. This study
aims to create an automatic text summarizer for online forums to mitigate this
problem. We present a framework based on hierarchical attention networks,
unifying Bidirectional Long Short-Term Memory (Bi-LSTM) and Convolutional
Neural Network (CNN) to build sentence and thread representations for the forum
summarization. In this scheme, Bi-LSTM derives a representation that comprises
information of the whole sentence and whole thread; whereas, CNN recognizes
high-level patterns of dominant units with respect to the sentence and thread
context. The attention mechanism is applied on top of CNN to further highlight
the high-level representations that capture any important units contributing to
a desirable summary. Extensive performance evaluation based on three datasets,
two of which are real-life online forums and one is news dataset, reveals that
the proposed model outperforms several competitive baselines.
- Abstract(参考訳): オンラインディスカッションフォーラムは広く普及しており、簡単にアクセスできるので、議論スレッドにメッセージを投稿することでアイデアや意見を共有できる。
フォーラムスレッドは、参加者にとって、新参者も既存者も、主要なアイデアをつかむことが困難になる可能性がある。
本研究は,この問題を軽減するために,オンラインフォーラム用テキスト要約の自動作成を目的とする。
本稿では,2方向長短期記憶(Bi-LSTM)と畳み込みニューラルネットワーク(Convolutional Neural Network, CNN)を結合した階層型注目ネットワークに基づくフレームワークを提案する。
このスキームでは、Bi-LSTMは文全体とスレッド全体の情報を含む表現を導出するが、CNNは文とスレッドコンテキストに関して支配的な単位の高レベルなパターンを認識する。
注意機構はcnnの上に適用され、望ましい要約に寄与する重要なユニットをキャプチャするハイレベルな表現をさらに強調する。
3つのデータセットに基づく広範なパフォーマンス評価、そのうちの2つは実生活オンラインフォーラム、もう1つはニュースデータセットであり、提案モデルがいくつかの競合ベースラインを上回ることを示している。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - A Dual-Stream Recurrence-Attention Network With Global-Local Awareness
for Emotion Recognition in Textual Dialog [41.72374101704424]
本稿では,DualRAN(Dualstream Recurrence-Attention Network)を提案する。
DualRANは、現在のメソッドの複雑なコンポーネントを排除し、繰り返しベースのメソッドと注意ベースのメソッドを組み合わせることに焦点を当てている。
重み付きF1スコアは,IEMOCAPとMELDデータセットでそれぞれ1.43%,0.64%向上している。
論文 参考訳(メタデータ) (2023-07-02T01:25:47Z) - The Lottery Ticket Hypothesis for Self-attention in Convolutional Neural
Network [69.54809052377189]
近年, 深部畳み込みニューラルネットワーク(CNN)の内部情報を活用することにより, モデル一般化の促進を図るために, SAM (Plug-and-play Self-attention Module) が多数提案されている。
a) SAMをすべてのブロックに接続することは、必ずしも最大のパフォーマンス向上をもたらすとは限らないし、部分ブロックに接続する方が、さらによい。 (b) CNNにSAMを追加することは、必ずしもパフォーマンス向上をもたらすものではなく、代わりに元のCNNバックボーンのパフォーマンスに害を与えるかもしれない。
論文 参考訳(メタデータ) (2022-07-16T07:08:59Z) - Topic-Aware Encoding for Extractive Summarization [15.113768658584979]
この問題に対処するために,文書要約のためのトピック認識符号化を提案する。
ニューラルネットワークに基づく文レベルの表現学習にニューラルトピックモデルを追加し、中心トピック情報を適切に検討する。
3つの公開データセットの実験結果は、我々のモデルが最先端のモデルより優れていることを示している。
論文 参考訳(メタデータ) (2021-12-17T15:26:37Z) - A Multi-Size Neural Network with Attention Mechanism for Answer
Selection [3.310455595316906]
応答選択タスクには,アテンション機構を備えたマルチサイズニューラルネットワーク(AM-MSNN)が効果的に導入されている。
単一層CNNや多層CNNと比較してフィルタのサイズが多様であるため、並列でより多くの言語粒度をキャプチャする。
注意機構によって文表現を拡張し、様々な種類の質問についてより多くの情報を含む。
論文 参考訳(メタデータ) (2021-04-24T02:13:26Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and
Context-Aware Auto-Encoders [59.038157066874255]
本稿では,手動ラベル付きデータを用いずにチャット要約を行うrankaeという新しいフレームワークを提案する。
RankAEは、中心性と多様性に応じてトピックの発話を同時に選択するトピック指向のランキング戦略で構成されています。
消音自動エンコーダは、選択された発話に基づいて簡潔でコンテキスト情報に基づいた要約を生成するように設計されています。
論文 参考訳(メタデータ) (2020-12-14T07:31:17Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - Multichannel CNN with Attention for Text Classification [5.1545224296246275]
本稿では,テキスト分類のための注意型マルチチャネル畳み込みニューラルネットワーク(AMCNN)を提案する。
AMCNNは、単語の歴史と将来の情報を高次元表現にエンコードするために双方向長短期記憶を使用する。
ベンチマークデータセットの実験結果は、AMCNNが最先端の手法よりも優れたパフォーマンスを達成していることを示している。
論文 参考訳(メタデータ) (2020-06-29T16:37:51Z) - Neural Data-to-Text Generation via Jointly Learning the Segmentation and
Correspondence [48.765579605145454]
対象のテキストを断片単位に明示的に分割し,それらのデータ対応と整合させることを提案する。
結果として生じるアーキテクチャは、ニューラルアテンションモデルと同じ表現力を維持している。
E2EとWebNLGのベンチマークでは、提案モデルがニューラルアテンションよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2020-05-03T14:28:28Z) - Short Text Classification via Knowledge powered Attention with
Similarity Matrix based CNN [6.6723692875904375]
本稿では,類似度行列に基づく畳み込みニューラルネットワーク(KASM)モデルを用いた知識駆動型アテンションを提案する。
我々は知識グラフ(KG)を用いて短文の意味表現を強化する。
知識の重要性を測定するために,重要な情報を選択するための注意機構を導入する。
論文 参考訳(メタデータ) (2020-02-09T12:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。