論文の概要: Improving unsupervised neural aspect extraction for online discussions
using out-of-domain classification
- arxiv url: http://arxiv.org/abs/2006.09766v1
- Date: Wed, 17 Jun 2020 10:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:54:34.819242
- Title: Improving unsupervised neural aspect extraction for online discussions
using out-of-domain classification
- Title(参考訳): ドメイン外分類を用いたオンライン議論における教師なしニューラルアスペクト抽出の改善
- Authors: Anton Alekseev, Elena Tutubalina, Valentin Malykh, Sergey Nikolenko
- Abstract要約: 本稿では,ニュースグループに基づくコンテンツから学んだ話題的側面を改善するために,文フィルタリングに基づく簡単なアプローチを提案する。
文フィルタリングがトピックコヒーレンスに与える影響を,未フィルタリングテキスト上で訓練されたアスペクト抽出モデルと比較した。
- 参考スコア(独自算出の注目度): 11.746330029375745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning architectures based on self-attention have recently achieved
and surpassed state of the art results in the task of unsupervised aspect
extraction and topic modeling. While models such as neural attention-based
aspect extraction (ABAE) have been successfully applied to user-generated
texts, they are less coherent when applied to traditional data sources such as
news articles and newsgroup documents. In this work, we introduce a simple
approach based on sentence filtering in order to improve topical aspects
learned from newsgroups-based content without modifying the basic mechanism of
ABAE. We train a probabilistic classifier to distinguish between out-of-domain
texts (outer dataset) and in-domain texts (target dataset). Then, during data
preparation we filter out sentences that have a low probability of being
in-domain and train the neural model on the remaining sentences. The positive
effect of sentence filtering on topic coherence is demonstrated in comparison
to aspect extraction models trained on unfiltered texts.
- Abstract(参考訳): 自己意識に基づくディープラーニングアーキテクチャは、教師なしアスペクト抽出とトピックモデリングのタスクにおいて、最近、技術結果の状態を達成し、超越している。
ニューラルアテンションベースのアスペクト抽出(ABAE)のようなモデルがユーザ生成テキストに適用されているが、ニュース記事やニュースグループ文書などの従来のデータソースに適用した場合、一貫性は低い。
本稿では,abaeの基本機構を変更せずにニュースグループベースのコンテンツから学習した話題的側面を改善するために,文フィルタリングに基づく単純なアプローチを提案する。
我々は、確率的分類器を訓練して、ドメイン外のテキスト(outer dataset)とドメイン内のテキスト(target dataset)を区別する。
そして、データ準備中に、ドメイン内である確率の低い文をフィルタリングし、残りの文でニューラルネットワークモデルをトレーニングします。
文フィルタリングがトピックコヒーレンスに与える影響を,未フィルタリングテキスト上で訓練されたアスペクト抽出モデルと比較した。
関連論文リスト
- CAST: Corpus-Aware Self-similarity Enhanced Topic modelling [16.562349140796115]
CAST: Corpus-Aware Self-similarity Enhanced Topic modelling, a novel topic modelling methodを紹介する。
機能的単語が候補話題語として振る舞うのを防ぐための効果的な指標として自己相似性を見出した。
提案手法は,生成したトピックの一貫性と多様性,およびノイズの多いデータを扱うトピックモデルの能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-19T15:27:11Z) - Zero-Shot Text Classification via Self-Supervised Tuning [46.9902502503747]
ゼロショットテキスト分類タスクを解決するための自己教師付き学習に基づく新しいパラダイムを提案する。
自己教師付きチューニングという,ラベルのないデータで言語モデルをチューニングする。
我々のモデルは10タスク中7タスクで最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-19T05:47:33Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - SLCNN: Sentence-Level Convolutional Neural Network for Text
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は,テキスト分類のタスクにおいて顕著な成功を収めている。
CNNを用いたテキスト分類のための新しいベースラインモデルが研究されている。
結果から,提案したモデルの性能は,特に長いドキュメントにおいて向上していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:16:02Z) - Towards Relation Extraction From Speech [56.36416922396724]
本稿では,新たな聴取情報抽出タスク,すなわち音声関係抽出を提案する。
本研究では,音声合成システムによる音声関係抽出のための訓練データセットを構築し,英語母語話者によるクラウドソーシングによるテストデータセットを構築した。
我々は,音声関係抽出における課題を識別するための包括的実験を行い,今後の探索に光を当てる可能性がある。
論文 参考訳(メタデータ) (2022-10-17T05:53:49Z) - A New Sentence Extraction Strategy for Unsupervised Extractive
Summarization Methods [26.326800624948344]
本稿では,情報理論の観点から,抽出テキスト要約手法の課題をモデル化する。
特徴分布の改善と要約文の相互情報の低減を目的として,新たな文抽出手法を提案する。
論文 参考訳(メタデータ) (2021-12-06T18:00:02Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Neural Data-to-Text Generation via Jointly Learning the Segmentation and
Correspondence [48.765579605145454]
対象のテキストを断片単位に明示的に分割し,それらのデータ対応と整合させることを提案する。
結果として生じるアーキテクチャは、ニューラルアテンションモデルと同じ表現力を維持している。
E2EとWebNLGのベンチマークでは、提案モデルがニューラルアテンションよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2020-05-03T14:28:28Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - Hybrid Attention-Based Transformer Block Model for Distant Supervision
Relation Extraction [20.644215991166902]
DSREタスクを実行するために,マルチインスタンス学習を用いたハイブリッドアテンションベースのトランスフォーマーブロックを用いた新しいフレームワークを提案する。
提案手法は評価データセットの最先端アルゴリズムより優れている。
論文 参考訳(メタデータ) (2020-03-10T13:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。