論文の概要: Topic modelling discourse dynamics in historical newspapers
- arxiv url: http://arxiv.org/abs/2011.10428v1
- Date: Fri, 20 Nov 2020 14:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 05:48:20.546598
- Title: Topic modelling discourse dynamics in historical newspapers
- Title(参考訳): 歴史新聞における話題モデリング談話力学
- Authors: Jani Marjanen, Elaine Zosa, Simon Hengchen, Lidia Pivovarova, Mikko
Tolonen
- Abstract要約: フィンランドの比較的大規模な歴史新聞に2種類のトピックモデル(LDAとDTM)を適用する。
ケーススタディは1854年から1917年にかけてフィンランドで発行された新聞や定期刊行物に焦点をあてるが、我々の手法はどんなダイアクロニックデータにも容易に適用できる。
- 参考スコア(独自算出の注目度): 2.978993130750125
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper addresses methodological issues in diachronic data analysis for
historical research. We apply two families of topic models (LDA and DTM) on a
relatively large set of historical newspapers, with the aim of capturing and
understanding discourse dynamics. Our case study focuses on newspapers and
periodicals published in Finland between 1854 and 1917, but our method can
easily be transposed to any diachronic data. Our main contributions are a) a
combined sampling, training and inference procedure for applying topic models
to huge and imbalanced diachronic text collections; b) a discussion on the
differences between two topic models for this type of data; c) quantifying
topic prominence for a period and thus a generalization of document-wise topic
assignment to a discourse level; and d) a discussion of the role of humanistic
interpretation with regard to analysing discourse dynamics through topic
models.
- Abstract(参考訳): 本稿では,歴史研究におけるダイアクロニックデータ解析の方法論的問題に対処する。
話題モデル(LDAとDTM)の2つのファミリーを,談話力学の把握と理解を目的とした,比較的大規模な歴史新聞に適用する。
ケーススタディは1854年から1917年にかけてフィンランドで発行された新聞や定期刊行物に焦点をあてるが、我々の手法はどんなダイアクロニックデータにも容易に適用できる。
私たちの主な貢献は
イ 巨大かつ不均衡なダイアクロニックテキストコレクションに話題モデルを適用するための複合的なサンプリング、トレーニング及び推論手順
b) この種のデータに対する2つの話題モデルの違いに関する議論
c) ある期間の話題の優位性を定量化し、したがって、談話レベルへの文書的話題の割り当ての一般化
d) 話題モデルによる談話のダイナミクスの分析におけるヒューマニズム的解釈の役割に関する議論。
関連論文リスト
- Embedded Topic Models Enhanced by Wikification [3.082729239227955]
ウィキペディアの知識をニューラルトピックモデルに組み込んで、名前付きエンティティを認識する。
実験により,本手法は一般化可能性において,ニューラルトピックモデルの性能を向上させることが示された。
論文 参考訳(メタデータ) (2024-10-03T12:39:14Z) - Investigating the Impact of Text Summarization on Topic Modeling [13.581341206178525]
本稿では,事前学習型大言語モデル(LLM)を用いてトピックモデリング性能をさらに向上する手法を提案する。
トピックモデリングへの影響を比較するために、異なる長さの要約を生成するために、ショットプロンプトはほとんど使われない。
提案手法は,従来のモデルと比較して,トピックの多様性とコヒーレンス値に比較して優れている。
論文 参考訳(メタデータ) (2024-09-28T19:45:45Z) - Interactive Topic Models with Optimal Transport [75.26555710661908]
ラベル名監視型トピックモデリングのためのアプローチとして,EdTMを提案する。
EdTMは、LM/LLMベースのドキュメントトピック親和性を活用しながら、代入問題としてのトピックモデリングをモデル化する。
論文 参考訳(メタデータ) (2024-06-28T13:57:27Z) - A Large Language Model Guided Topic Refinement Mechanism for Short Text Modeling [10.589126787499973]
既存のトピックモデルは、しばしば短いテキストの根底にあるセマンティックなパターンを正確に捉えるのに苦労する。
本稿では,トピックリファインメント(Topic Refinement)と呼ばれる新しいモデル非依存機構を提案する。
トピックリファインメントによりトピックの品質が向上し、トピック関連テキスト分類タスクのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-03-26T13:50:34Z) - Decoding Multilingual Topic Dynamics and Trend Identification through ARIMA Time Series Analysis on Social Networks: A Novel Data Translation Framework Enhanced by LDA/HDP Models [0.08246494848934444]
われわれは、コロナウイルスパンデミックの間、チュニジアのソーシャルネットワーク内での対話や、スポーツや政治などの有名なテーマに焦点を当てている。
まず、これらのテーマに関連するコメントの多言語コーパスを集約することから始めます。
次に、言語的差異に対処するために、ノー・イングリッシュ・トゥ・イングリッシュ・マシン翻訳手法を導入する。
論文 参考訳(メタデータ) (2024-03-18T00:01:10Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Topic Discovery via Latent Space Clustering of Pretrained Language Model
Representations [35.74225306947918]
本研究では, PLM 埋め込みを基盤とした空間学習とクラスタリングの連携フレームワークを提案する。
提案モデルでは,トピック発見のためにPLMがもたらす強力な表現力と言語的特徴を効果的に活用する。
論文 参考訳(メタデータ) (2022-02-09T17:26:08Z) - Author Clustering and Topic Estimation for Short Texts [69.54017251622211]
同じ文書中の単語間の強い依存をモデル化することにより、遅延ディリクレ割当を拡張できる新しいモデルを提案する。
同時にユーザをクラスタ化し、ホック後のクラスタ推定の必要性を排除しています。
我々の手法は、短文で生じる問題に対する従来のアプローチよりも、-または----------- で機能する。
論文 参考訳(メタデータ) (2021-06-15T20:55:55Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Modeling Topical Relevance for Multi-Turn Dialogue Generation [61.87165077442267]
マルチターン対話におけるトピックドリフト問題に対処する新しいモデルSTAR-BTMを提案する。
バイラルトピックモデルは、トレーニングデータセット全体に基づいて事前トレーニングされ、各コンテキストのトピック表現に基づいてトピックレベルの注意重みが計算される。
中国における顧客サービスデータと英語Ubuntuの対話データの両方の実験結果から、STAR-BTMは最先端の手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2020-09-27T03:33:22Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。