論文の概要: Improving Neural Topic Models using Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2010.02377v1
- Date: Mon, 5 Oct 2020 22:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:06:11.243744
- Title: Improving Neural Topic Models using Knowledge Distillation
- Title(参考訳): 知識蒸留を用いた神経話題モデルの改善
- Authors: Alexander Hoyle, Pranav Goel, Philip Resnik
- Abstract要約: 我々は,確率論的トピックモデルと事前学習されたトランスフォーマーの最適属性を組み合わせるために,知識蒸留を用いる。
我々のモジュラー手法は、どのニューラルトピックモデルでも簡単に適用でき、トピックの品質を向上させることができる。
- 参考スコア(独自算出の注目度): 84.66983329587073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Topic models are often used to identify human-interpretable topics to help
make sense of large document collections. We use knowledge distillation to
combine the best attributes of probabilistic topic models and pretrained
transformers. Our modular method can be straightforwardly applied with any
neural topic model to improve topic quality, which we demonstrate using two
models having disparate architectures, obtaining state-of-the-art topic
coherence. We show that our adaptable framework not only improves performance
in the aggregate over all estimated topics, as is commonly reported, but also
in head-to-head comparisons of aligned topics.
- Abstract(参考訳): トピックモデルは、大きなドキュメントコレクションを理解するのに役立つ人間の解釈可能なトピックを特定するためにしばしば使用される。
我々は知識蒸留を用いて確率的トピックモデルと事前学習されたトランスフォーマの最良の特性を組み合わせる。
我々のモジュラー手法は、どのニューラルトピックモデルでも簡単に適用でき、トピックの品質を改善し、異なるアーキテクチャを持つ2つのモデルを用いて、最先端のトピックコヒーレンスを得ることができることを示した。
適応可能なフレームワークは、一般的に報告されているように、すべての推定トピックに対するアグリゲーションのパフォーマンスを向上するだけでなく、アライメントされたトピックの直接比較においても向上することを示す。
関連論文リスト
- Improving the TENOR of Labeling: Re-evaluating Topic Models for Content
Analysis [5.757610495733924]
対話型タスクベース設定において,ニューラル,教師付き,古典的なトピックモデルの最初の評価を行う。
現在の自動メトリクスは、トピックモデリング機能の完全な図を提供していないことを示す。
論文 参考訳(メタデータ) (2024-01-29T17:54:04Z) - TopicAdapt- An Inter-Corpora Topics Adaptation Approach [27.450275637652418]
本稿では、関連するソースコーパスから関連するトピックを適応し、ソースコーパスに存在しないターゲットコーパスに新しいトピックを発見できるトピックモデルTopicAdaptを提案する。
多様なドメインからの複数のデータセットに対する実験は、最先端のトピックモデルに対して提案されたモデルの優位性を示している。
論文 参考訳(メタデータ) (2023-10-08T02:56:44Z) - Towards the TopMost: A Topic Modeling System Toolkit [29.835770709172557]
トピックモデルのためのトピックモデリングシステムツールキット(TopMost)を提案する。
TopMostのモジュール設計は、様々なトピックモデルの迅速な利用、公正な比較、柔軟な拡張を可能にする。
論文 参考訳(メタデータ) (2023-09-13T12:10:54Z) - Improving Neural Topic Models with Wasserstein Knowledge Distillation [0.76146285961466]
本稿では,トピックの品質を損なうことなく,文脈化されたトピックモデルを圧縮する知識蒸留フレームワークを提案する。
実験により, 知識蒸留の訓練を受けた学生は, 本来の学生モデルよりも, トピックコヒーレンスをはるかに高い精度で達成できることがわかった。
論文 参考訳(メタデータ) (2023-03-27T16:07:44Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Knowledge-Aware Bayesian Deep Topic Model [50.58975785318575]
本稿では,事前知識を階層型トピックモデリングに組み込むベイズ生成モデルを提案する。
提案モデルでは,事前知識を効率的に統合し,階層的なトピック発見と文書表現の両面を改善する。
論文 参考訳(メタデータ) (2022-09-20T09:16:05Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - SEEK: Segmented Embedding of Knowledge Graphs [77.5307592941209]
本稿では,モデル複雑性を増大させることなく,高い競争力を持つ関係表現性を実現する軽量なモデリングフレームワークを提案する。
本フレームワークは,評価関数の設計に重点を置いており,1)十分な特徴相互作用の促進,2)関係の対称性と反対称性の両特性の保存,という2つの重要な特徴を強調している。
論文 参考訳(メタデータ) (2020-05-02T15:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。