論文の概要: Contrastive News and Social Media Linking using BERT for Articles and
Tweets across Dual Platforms
- arxiv url: http://arxiv.org/abs/2312.07599v1
- Date: Mon, 11 Dec 2023 13:38:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 18:14:28.440583
- Title: Contrastive News and Social Media Linking using BERT for Articles and
Tweets across Dual Platforms
- Title(参考訳): 両プラットフォーム間の記事やつぶやきに対するBERTを用いたコントラストニュースとソーシャルメディアリンク
- Authors: Jan Piotrowski, Marek Wachnicki, Mateusz Perlik, Jakub Podolak,
Grzegorz Rucki, Micha{\l} Brzozowski, Pawe{\l} Olejnik, Julian Koz{\l}owski,
Tomasz Noco\'n, Jakub Kozie{\l}, Stanis{\l}aw Gizi\'nski and Piotr Sankowski
- Abstract要約: 本稿では,関連記事やつぶやきが近接している表現空間を学習するための対照的な学習手法を提案する。
比較学習手法であるCATBERT(Contrastive Articles Tweets BERT)を提案する。
以上の結果から,CATBERTは,関連ニュース記事とツイートの関連付けにおいて,優れたパフォーマンスを示すことが示唆された。
- 参考スコア(独自算出の注目度): 1.5409664608353888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: X (formerly Twitter) has evolved into a contemporary agora, offering a
platform for individuals to express opinions and viewpoints on current events.
The majority of the topics discussed on Twitter are directly related to ongoing
events, making it an important source for monitoring public discourse. However,
linking tweets to specific news presents a significant challenge due to their
concise and informal nature. Previous approaches, including topic models,
graph-based models, and supervised classifiers, have fallen short in
effectively capturing the unique characteristics of tweets and articles.
Inspired by the success of the CLIP model in computer vision, which employs
contrastive learning to model similarities between images and captions, this
paper introduces a contrastive learning approach for training a representation
space where linked articles and tweets exhibit proximity. We present our
contrastive learning approach, CATBERT (Contrastive Articles Tweets BERT),
leveraging pre-trained BERT models. The model is trained and tested on a
dataset containing manually labeled English and Polish tweets and articles
related to the Russian-Ukrainian war. We evaluate CATBERT's performance against
traditional approaches like LDA, and the novel method based on OpenAI
embeddings, which has not been previously applied to this task. Our findings
indicate that CATBERT demonstrates superior performance in associating tweets
with relevant news articles. Furthermore, we demonstrate the performance of the
models when applied to finding the main topic -- represented by an article --
of the whole cascade of tweets. In this new task, we report the performance of
the different models in dependence on the cascade size.
- Abstract(参考訳): x(旧twitter)は現代のアゴラへと進化し、個人が現在の出来事についての意見や見解を表現できるプラットフォームを提供している。
Twitterで議論されたトピックの大部分は、進行中のイベントに直接関連しており、公開談話を監視する上で重要なソースとなっている。
しかし、ツイートを特定のニュースにリンクすることは、その簡潔で非公式な性質のために大きな課題となる。
トピックモデル、グラフベースモデル、教師付き分類器など、従来のアプローチでは、ツイートや記事のユニークな特徴を効果的に捉えられなかった。
画像とキャプションの類似性をモデル化するためにコントラスト学習を利用するコンピュータビジョンにおけるCLIPモデルの成功に触発された本研究では,リンク記事やつぶやきが近接する表現空間をトレーニングするためのコントラスト学習手法を提案する。
比較学習手法であるCATBERT(Contrastive Articles Tweets BERT)を提案する。
このモデルは、手動で英語とポーランド語のツイートと、ロシア・ウクライナ戦争に関連する記事を含むデータセットで訓練され、テストされている。
我々は,従来のLDAのような手法に対するCATBERTの性能評価と,これまでは適用されていなかったOpenAI埋め込みに基づく新しい手法について述べる。
以上の結果から,CATBERTは,関連ニュース記事とツイートの関連付けにおいて,優れた性能を示した。
さらに,本論文に代表されるメイントピックの検索に適用されたモデルの性能を,全ツイートのカスケードで示す。
本課題では,カスケードサイズに依存する異なるモデルの性能について報告する。
関連論文リスト
- Hashing it Out: Predicting Unhealthy Conversations on Twitter [0.17175853976270528]
大規模Twitterコーパス上で事前学習されたアテンションベースのBERTアーキテクチャは,このような予測を行う上で効率的かつ効果的であることを示す。
この研究は、最もユビキタスなソーシャルメディアプラットフォームにおけるより良いインタラクションを促進するための実用的なツールの基礎を築いた。
論文 参考訳(メタデータ) (2023-11-17T15:49:11Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - CaMEL: Mean Teacher Learning for Image Captioning [47.9708610052655]
画像キャプションのためのトランスフォーマーベースの新しいアーキテクチャであるCaMELを提案する。
提案手法は,訓練期間中に相互に学習する2つの相互接続型言語モデルの相互作用を利用する。
実験により,COCOデータセットと異なる視覚的特徴抽出器との併用により,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-02-21T19:04:46Z) - Dynamic Language Models for Continuously Evolving Content [19.42658043326054]
近年、BERTのような事前訓練された言語モデルは、コンテンツ理解タスクの最先端性を大幅に改善した。
本稿では,これらの言語モデルをウェブコンテンツの継続的な進化に適応させる方法について検討する。
論文 参考訳(メタデータ) (2021-06-11T10:33:50Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Pre-Training BERT on Arabic Tweets: Practical Considerations [11.087099497830552]
トレーニングセットのサイズ、形式と非公式のアラビア語の混合、言語前処理の5つのBERTモデルを事前訓練した。
すべてアラビア方言とソーシャルメディアをサポートすることを意図している。
新しいモデルは、いくつかの下流タスクで最新の結果を達成します。
論文 参考訳(メタデータ) (2021-02-21T20:51:33Z) - Neuro-Symbolic Representations for Video Captioning: A Case for
Leveraging Inductive Biases for Vision and Language [148.0843278195794]
ビデオキャプションのためのマルチモーダルなニューラルシンボリック表現を学習するための新しいモデルアーキテクチャを提案する。
本手法では,ビデオ間の関係を学習する辞書学習手法と,そのペアによるテキスト記述を用いる。
論文 参考訳(メタデータ) (2020-11-18T20:21:19Z) - TweetBERT: A Pretrained Language Representation Model for Twitter Text
Analysis [0.0]
我々は、何百万ものツイートで事前訓練されたドメイン固有言語プレゼンテーションモデルである2つのTweetBERTモデルを紹介した。
TweetBERTモデルは、Twitterのテキストマイニングタスクにおける従来のBERTモデルよりも、各Twitterデータセットで7%以上優れています。
論文 参考訳(メタデータ) (2020-10-17T00:45:02Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。