論文の概要: A Novel Method of Fuzzy Topic Modeling based on Transformer Processing
- arxiv url: http://arxiv.org/abs/2309.09658v1
- Date: Mon, 18 Sep 2023 10:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 14:02:12.945829
- Title: A Novel Method of Fuzzy Topic Modeling based on Transformer Processing
- Title(参考訳): 変圧器処理に基づくファジィトピックモデリングの新しい手法
- Authors: Ching-Hsun Tseng, Shin-Jye Lee, Po-Wei Cheng, Chien Lee, Chih-Chieh
Hung
- Abstract要約: 本研究では, ソフトクラスタリングに基づくファジィトピックモデリングと, 最先端のトランスフォーマーモデルを用いた文書埋め込みを提案する。
このファジィトピックモデリングはLDAの従来の出力よりも自然な結果をもたらす。
- 参考スコア(独自算出の注目度): 1.4597673707346286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Topic modeling is admittedly a convenient way to monitor markets trend.
Conventionally, Latent Dirichlet Allocation, LDA, is considered a must-do model
to gain this type of information. By given the merit of deducing keyword with
token conditional probability in LDA, we can know the most possible or
essential topic. However, the results are not intuitive because the given
topics cannot wholly fit human knowledge. LDA offers the first possible
relevant keywords, which also brings out another problem of whether the
connection is reliable based on the statistic possibility. It is also hard to
decide the topic number manually in advance. As the booming trend of using
fuzzy membership to cluster and using transformers to embed words, this work
presents the fuzzy topic modeling based on soft clustering and document
embedding from state-of-the-art transformer-based model. In our practical
application in a press release monitoring, the fuzzy topic modeling gives a
more natural result than the traditional output from LDA.
- Abstract(参考訳): トピックモデリングは、明らかに市場の動向を監視する便利な方法である。
従来、LDA(Latent Dirichlet Allocation)はこの種の情報を得るために必須のモデルであると考えられてきた。
LDAのトークン条件付き確率でキーワードを導出するメリットを生かして、最も可能なトピックや本質的なトピックを知ることができる。
しかし、与えられたトピックが人間の知識に完全に適合できないため、結果は直感的ではない。
LDAは最初の可能な関連するキーワードを提供しており、統計的可能性に基づいてコネクションが信頼できるかどうかという別の問題も生じている。
トピック番号を事前に手作業で決めることも難しい。
ファジィメンバシップをクラスタに使用し、トランスフォーマーを使って単語を埋め込むブームのトレンドとして、ソフトクラスタリングに基づくファジィトピックモデリングと、最先端のトランスフォーマーベースモデルによるドキュメント埋め込みを提案する。
プレスリリースモニタリングの実用的なアプリケーションでは、ファジィトピックモデリングは従来のldaのアウトプットよりも自然な結果をもたらします。
関連論文リスト
- Causal Inference via Style Transfer for Out-of-distribution
Generalisation [10.998592702137858]
アウト・オブ・ディストリビューションの一般化は、目に見えないターゲットドメインをうまく一般化できるモデルを構築することを目的としている。
本稿では,正面調整を成功させることで,隠れた共同創設者を効果的に扱う新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T15:43:54Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Keyword Assisted Embedded Topic Model [1.9000421840914223]
確率論的トピックモデルは、文書内の単語がトピックと呼ばれる潜在分布の集合を通してどのように生成されるかを記述する。
近年,組込みトピックモデル (ETM) がLDAを拡張して,単語埋め込みにおける意味情報を利用して意味的にリッチなトピックを導出している。
本稿では,ユーザ知識を情報的トピックレベルの先行情報に組み込む機能を備えたKeyETM(Keyword Assisted Embedded Topic Model)を提案する。
論文 参考訳(メタデータ) (2021-11-22T07:27:17Z) - InteL-VAEs: Adding Inductive Biases to Variational Auto-Encoders via
Intermediary Latents [60.785317191131284]
本稿では,潜伏変数の中間集合を用いて,制御可能なバイアスでVAEを学習するための簡易かつ効果的な手法を提案する。
特に、学習した表現に対して、スパーシリティやクラスタリングといった望ましいプロパティを課すことができます。
これにより、InteL-VAEはより優れた生成モデルと表現の両方を学ぶことができる。
論文 参考訳(メタデータ) (2021-06-25T16:34:05Z) - Learning Disentangled Latent Factors from Paired Data in Cross-Modal
Retrieval: An Implicit Identifiable VAE Approach [33.61751393224223]
両モーダルデータ間で相互に共有される不整合潜在因子を相互に検索する際の問題に対処する。
本稿では,潜在変数モデルから周辺データデコードモジュールを完全に除去する暗黙デコーダの新たなアイデアを提案する。
本モデルでは,従来のエンコーダ・デコーダの潜在変数モデルよりも精度が高く,精度も優れていた。
論文 参考訳(メタデータ) (2020-12-01T17:47:50Z) - Improving Neural Topic Models using Knowledge Distillation [84.66983329587073]
我々は,確率論的トピックモデルと事前学習されたトランスフォーマーの最適属性を組み合わせるために,知識蒸留を用いる。
我々のモジュラー手法は、どのニューラルトピックモデルでも簡単に適用でき、トピックの品質を向上させることができる。
論文 参考訳(メタデータ) (2020-10-05T22:49:16Z) - Unification of HDP and LDA Models for Optimal Topic Clustering of
Subject Specific Question Banks [55.41644538483948]
オンラインコースの人気が高まると、学者向けのコース関連クエリの数が増加することになる。
個々の質問に答えるのに費やす時間を短縮するために、それらをクラスタリングするのは理想的な選択です。
階層ディリクレプロセスを用いて、LDAモデルの実行に対して最適なトピック番号を入力します。
論文 参考訳(メタデータ) (2020-10-04T18:21:20Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - Improving Reliability of Latent Dirichlet Allocation by Assessing Its
Stability Using Clustering Techniques on Replicated Runs [0.3499870393443268]
本研究は,LDAの安定度を再現走行の代入値と比較することによって検討する。
修正ジャカード係数を用いて、2つの生成トピックの類似性を定量化する。
S-CLOPはLDAモデルの安定性を評価するのに有用であることを示す。
論文 参考訳(メタデータ) (2020-02-14T07:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。