論文の概要: Modeling Fuzzy Cluster Transitions for Topic Tracing
- arxiv url: http://arxiv.org/abs/2104.08258v1
- Date: Fri, 16 Apr 2021 17:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:14:13.612126
- Title: Modeling Fuzzy Cluster Transitions for Topic Tracing
- Title(参考訳): トピックトレースのためのファジィクラスタ遷移のモデリング
- Authors: Xiaonan Jing, Yi Zhang, Qingyuan Hu, Julia Taylor Rayz
- Abstract要約: Twitterは自然言語処理(NLP)タスクのデータソースとして見ることができる。
トピッククラスタのファジィ遷移をモデル化するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.901193306593378
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Twitter can be viewed as a data source for Natural Language Processing (NLP)
tasks. The continuously updating data streams on Twitter make it challenging to
trace real-time topic evolution. In this paper, we propose a framework for
modeling fuzzy transitions of topic clusters. We extend our previous work on
crisp cluster transitions by incorporating fuzzy logic in order to enrich the
underlying structures identified by the framework. We apply the methodology to
both computer generated clusters of nouns from tweets and human tweet
annotations. The obtained fuzzy transitions are compared with the crisp
transitions, on both computer generated clusters and human labeled topic sets.
- Abstract(参考訳): twitterは自然言語処理(nlp)タスクのためのデータソースと見なすことができる。
twitterのデータストリームを継続的に更新することは、リアルタイムのトピックの進化を追跡するのが難しくなる。
本稿では,トピッククラスタのファジィ遷移をモデル化するためのフレームワークを提案する。
我々は、フレームワークが識別する基盤構造を強化するため、ファジィロジックを組み込むことで、クリスプクラスタトランジションに関する以前の作業を拡張します。
この手法を,ツイートから生成した名詞のクラスタと人間のツイートアノテーションの両方に適用する。
得られたファジィ遷移は、コンピュータ生成クラスタと人間のラベル付きトピックセットの両方において、クリプス遷移と比較される。
関連論文リスト
- Pushdown Layers: Encoding Recursive Structure in Transformer Language
Models [86.75729087623259]
再帰は人間の言語の特徴であり、本質的には自己注意に挑戦する。
この作業では、新しいセルフアテンション層であるPushdown Layersを導入している。
プッシュダウン層を備えたトランスフォーマーは、劇的に改善され、3.5倍の高効率な構文一般化を実現した。
論文 参考訳(メタデータ) (2023-10-29T17:27:18Z) - Graph Decision Transformer [83.76329715043205]
グラフ決定変換器(GDT)は、新しいオフライン強化学習手法である。
GDTは入力シーケンスを因果グラフにモデル化し、基本的な異なる概念間の潜在的な依存関係をキャプチャする。
実験の結果,GDT は画像ベース Atari と OpenAI の Gym 上で,最先端のオフライン RL 手法の性能と一致しているか,上回っていることがわかった。
論文 参考訳(メタデータ) (2023-03-07T09:10:34Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Towards Tokenized Human Dynamics Representation [41.75534387530019]
我々は,ビデオの時間的パターンを自己監督的に分割し,クラスタ化する方法について検討した。
我々は、ケンドールのTauによるフレームワイド表現学習ステップと、正規化された相互情報と言語エントロピーによる語彙構築ステップを評価する。
AIST++とPKU-MMDデータセットでは、アクトンはいくつかのベースラインと比較して大幅にパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2021-11-22T18:59:58Z) - R2D2: Relational Text Decoding with Transformers [18.137828323277347]
グラフ構造とそれらのノードとエッジに関連付けられた自然言語テキストとの相互作用をモデル化する新しいフレームワークを提案する。
提案手法は,グラフィカル構造とテキストのシーケンシャルな性質の両方を利用する。
提案モデルには幅広い応用があるが,データ・テキスト生成タスクにおけるその機能を示す。
論文 参考訳(メタデータ) (2021-05-10T19:59:11Z) - Tracing Topic Transitions with Temporal Graph Clusters [4.901193306593378]
Twitterは多くの自然言語処理(NLP)タスクのデータソースとして機能する。
データストリームを継続的に更新するため、Twitter上のトピックを特定することは難しい。
実世界のtwitterデータから2週間以内にサブトピックの進化を識別するための教師なしグラフベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-16T00:55:31Z) - End-to-end Semantic Role Labeling with Neural Transition-based Model [25.921541005563856]
エンドツーエンドのセマンティックロールラベリング(SRL)が注目されています。
最近の研究は主にグラフベースのニューラルモデルに焦点を当てている。
本稿では,エンドツーエンドSRLのための遷移型ニューラルモデルについて紹介する。
論文 参考訳(メタデータ) (2021-01-02T07:35:54Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Cluster-Former: Clustering-based Sparse Transformer for Long-Range
Dependency Encoding [90.77031668988661]
Cluster-Formerはクラスタリングベースの新しいスパーストランスであり、チャンクされたシーケンスにまたがって注意を向ける。
提案されたフレームワークは、Sliding-Window LayerとCluster-Former Layerの2つのユニークなタイプのTransformer Layerにピボットされている。
実験によると、Cluster-Formerはいくつかの主要なQAベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-13T22:09:30Z) - Transition-based Semantic Dependency Parsing with Pointer Networks [0.34376560669160383]
本稿では,ラベル付き非巡回グラフを容易に生成し,セマンティック依存解析を行う遷移システムを提案する。
BERTから抽出した深層文脈化単語埋め込みによるアプローチを強化する。
結果として得られたシステムは、既存のトランジションベースモデルをすべて上回るだけでなく、SemEval 2015 18の英語データセットでこれまでで最高の完全教師付き精度を達成している。
論文 参考訳(メタデータ) (2020-05-27T13:18:27Z) - Tree-structured Attention with Hierarchical Accumulation [103.47584968330325]
階層的累積」は解析木構造を一定時間複雑度で自己注意に符号化する。
提案手法は,4つの IWSLT 翻訳タスクと WMT'14 翻訳タスクにおいて,SOTA 法より優れている。
論文 参考訳(メタデータ) (2020-02-19T08:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。