論文の概要: Generative Deduplication For Socia Media Data Selection
- arxiv url: http://arxiv.org/abs/2401.05883v3
- Date: Thu, 03 Oct 2024 03:34:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 23:30:39.911306
- Title: Generative Deduplication For Socia Media Data Selection
- Title(参考訳): ソシアメディアデータ選択のための生成重複
- Authors: Xianming Li, Jing Li,
- Abstract要約: 本稿では,ソーシャルメディアデータ選択のための新しい生成重複フレームワークを提案する。
我々のモデルはソーシャルメディアのNLPパイプラインを普遍的に拡張するための効率的な前処理手法として機能する。
- 参考スコア(独自算出の注目度): 4.545354973721937
- License:
- Abstract: Social media data exhibits severe redundancy caused by its noisy nature. It leads to increased training time and model bias in its processing. To address this issue, we propose a novel Generative Deduplication framework for social media data selection by removing semantically duplicate data. While related work involves data selection in task-specific training, our model acts as an efficient pre-processing method to universally enhance social media NLP pipelines. Specifically, we train a generative model via self-supervised learning to predict a keyword to capture the semantics of noisy social media text for deduplication. Meanwhile, time-dimensional Gaussian noise is added to improve training complexity and avoid learning trivial features. Extensive experiments suggest that our model can better reduce training samples while improving performance than baselines. The results show our model's potential to broadly advance social media language understanding in effectiveness and efficiency.
- Abstract(参考訳): ソーシャルメディアデータは、その騒々しい性質によって引き起こされる深刻な冗長性を示す。
これはトレーニング時間の増加と、その処理におけるモデルバイアスにつながる。
この問題に対処するために,意味的に重複したデータを取り除き,ソーシャルメディアデータ選択のための新しい生成重複フレームワークを提案する。
タスク固有のトレーニングにおけるデータ選択は関連する作業であるが、我々のモデルはソーシャルメディアのNLPパイプラインを普遍的に拡張するための効率的な前処理方法として機能する。
具体的には、自己教師型学習を用いて生成モデルを訓練し、ノイズの多いソーシャルメディアテキストの意味を抽出し、重複を抑えるキーワードを予測する。
一方、時間次元ガウスノイズは、訓練の複雑さを改善し、自明な特徴の学習を避けるために追加される。
大規模な実験から,本モデルではトレーニングサンプルの削減と,ベースラインよりも性能の向上が期待できる。
その結果,本モデルがソーシャルメディア言語を効果的かつ効果的に理解する能力を広く向上させる可能性が示唆された。
関連論文リスト
- High-Dimensional Distributed Sparse Classification with Scalable Communication-Efficient Global Updates [50.406127962933915]
我々はコミュニケーション効率のよい分散ロジスティック回帰モデルを学ぶことができる問題に対する解決策を開発する。
実験では、いくつかの分散更新ステップだけで、分散アルゴリズムよりも精度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-07-08T19:34:39Z) - Out-of-distribution Rumor Detection via Test-Time Adaptation [21.342632695285364]
分布シフト(TARD)による騒音検出のための簡易かつ効率的なテスト時間適応法を提案する。
本手法は,伝搬グラフの形式でニュースの伝搬をモデル化し,伝搬グラフのテスト時間適応フレームワークを構築する。
実世界のソーシャルプラットフォームから収集した2つのグループデータセットを用いて行った実験は、我々のフレームワークがパフォーマンスにおいて最先端の手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-03-26T14:24:01Z) - Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Repetition In Repetition Out: Towards Understanding Neural Text
Degeneration from the Data Perspective [91.14291142262262]
この研究は、データの観点から、単純で基本的な説明を提示する。
予備調査では, 退化問題とトレーニングデータにおける反復の有無との間には強い相関関係がみられた。
実験の結果,訓練データにおける繰り返しのペナルティ化は,より大きなモデルサイズや命令のチューニングを考慮しても重要な課題であることがわかった。
論文 参考訳(メタデータ) (2023-10-16T09:35:42Z) - Mitigate Replication and Copying in Diffusion Models with Generalized
Caption and Dual Fusion Enhancement [7.9911486976035215]
本稿では,キャプションの一般性を測定し,大言語モデル(LLM)を用いてトレーニングキャプションを一般化する一般化スコアを提案する。
一般化キャプションを活用し,拡散モデルの複製を緩和する新しい二重核融合拡張手法を提案する。
論文 参考訳(メタデータ) (2023-09-13T18:43:13Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - Learning with Rejection for Abstractive Text Summarization [42.15551472507393]
本稿では,拒絶学習に基づく抽象的な要約のための学習目標を提案する。
本手法は, 自動評価と人的評価において, 生成した要約の事実性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-02-16T19:07:08Z) - Misinformation Detection in Social Media Video Posts [0.4724825031148411]
ソーシャルメディアプラットフォームによるショートフォームビデオは、ソーシャルメディアプロバイダーにとって重要な課題となっている。
本研究では,ソーシャルメディア投稿における誤情報検出手法を開発し,ビデオやテキストなどのモダリティを活用する。
われわれはTwitterから16万の動画投稿を収集し、自己教師付き学習を活用して、共同視覚およびテキストデータの表現表現を学ぶ。
論文 参考訳(メタデータ) (2022-02-15T20:14:54Z) - A Simple but Tough-to-Beat Data Augmentation Approach for Natural
Language Understanding and Generation [53.8171136907856]
カットオフと呼ばれる、シンプルで効果的なデータ拡張戦略のセットを紹介します。
カットオフはサンプリング一貫性に依存しているため、計算オーバーヘッドが少なくなる。
cutoffは、敵のトレーニングを一貫して上回り、IWSLT2014 German- English データセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-29T07:08:35Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。