論文の概要: Non-Parametric Temporal Adaptation for Social Media Topic Classification
- arxiv url: http://arxiv.org/abs/2209.05706v2
- Date: Mon, 15 May 2023 22:17:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 19:44:55.869210
- Title: Non-Parametric Temporal Adaptation for Social Media Topic Classification
- Title(参考訳): ソーシャルメディアトピック分類のための非パラメトリック時間適応
- Authors: Fatemehsadat Mireshghallah, Nikolai Vogler, Junxian He, Omar Florez,
Ahmed El-Kishky, Taylor Berg-Kirkpatrick
- Abstract要約: 縦断的ハッシュタグ予測の課題を通じて時間適応について検討した。
本手法は,高コストな勾配ベースの更新を伴わずに,最高のパラメトリックベースラインよりも64.12%向上する。
我々の高密度検索手法は、データプライバシ法に従って動的に削除されるユーザデータにも適しており、計算コストと性能損失は無視できる。
- 参考スコア(独自算出の注目度): 41.52878699836363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-generated social media data is constantly changing as new trends
influence online discussion and personal information is deleted due to privacy
concerns. However, most current NLP models are static and rely on fixed
training data, which means they are unable to adapt to temporal change -- both
test distribution shift and deleted training data -- without frequent, costly
re-training. In this paper, we study temporal adaptation through the task of
longitudinal hashtag prediction and propose a non-parametric dense retrieval
technique, which does not require re-training, as a simple but effective
solution. In experiments on a newly collected, publicly available, year-long
Twitter dataset exhibiting temporal distribution shift, our method improves by
64.12% over the best parametric baseline without any of its costly
gradient-based updating. Our dense retrieval approach is also particularly
well-suited to dynamically deleted user data in line with data privacy laws,
with negligible computational cost and performance loss.
- Abstract(参考訳): 新しいトレンドがオンラインの議論に影響を与え、個人情報がプライバシーの懸念から削除されるにつれ、ユーザー生成のソーシャルメディアデータは絶えず変化している。
しかし、現在のほとんどのNLPモデルは静的であり、固定されたトレーニングデータに依存しているため、頻繁でコストのかかる再トレーニングなしに、時間的変化(テスト分散シフトと削除されたトレーニングデータの両方)に適応できない。
そこで本研究では, 逐次的ハッシュタグ予測の課題を通して時間適応を考察し, 単純かつ効果的な解として, 再学習を必要としない非パラメトリック高密度検索手法を提案する。
新たに収集された1年単位のtwitterデータセットの時間的分布シフトに関する実験では、そのコストのかかる勾配ベースの更新なしに、最良パラメトリックベースラインよりも64.12%改善する。
我々の高密度検索アプローチは、データプライバシ法に従って動的に削除されるユーザデータにも適しており、計算コストと性能損失は無視できる。
関連論文リスト
- TCGU: Data-centric Graph Unlearning based on Transferable Condensation [36.670771080732486]
Transferable Condensation Graph Unlearning (TCGU)は、ゼロガンスグラフアンラーニングのためのデータ中心のソリューションである。
我々は,TGUが既存のGU手法よりもモデルユーティリティ,未学習効率,未学習効率において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-09T02:14:40Z) - Data Selection for Transfer Unlearning [14.967546081883034]
我々は、プライバシーアプリケーションに対処しない、リラックスした未学習の定義を提唱する。
補助的な「静的」データセットから関連事例を選択するためのメカニズムを用いた新しい手法を提案する。
提案手法は,複数のデータセットにおいて,ゴールド標準の「エクササイズ・アンラーニング」よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-16T20:09:41Z) - Online Tensor Inference [0.0]
従来のオフライン学習は、各計算繰り返しにおける全てのデータの保存と利用を伴い、高次元テンソルデータには実用的ではない。
既存の低ランクテンソル法は、オンラインの方法での統計的推論能力に欠ける。
本手法では,広範囲なメモリ要求を伴わずに効率的なリアルタイムデータ処理を実現するため,グラディエント・Descent (SGD) を用いる。
論文 参考訳(メタデータ) (2023-12-28T16:37:48Z) - Efficient Online Data Mixing For Language Model Pre-Training [101.45242332613944]
既存のデータ選択方法は、遅くて計算コストのかかるプロセスに悩まされる。
一方、データミキシングは、データポイントをまとめることで、データ選択の複雑さを低減する。
我々は,データ選択とデータ混合の両要素を組み合わせたオンラインデータ混合(ODM)の効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-05T00:42:35Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Transferable Unlearnable Examples [63.64357484690254]
第三者が許可なくデータのトレーニングを行うのを防ぐために、学べない戦略が導入された。
公開前にユーザーのデータに摂動を追加することで、公開データセットでトレーニングされたモデルを無効にすることを目指している。
本稿では、学習不可能な効果を他のトレーニング設定やデータセットに伝達することを目的とした、クラスワイズ・セパビリティ・ディミナント(CSD)に基づく新しい学習不可能な戦略を提案する。
論文 参考訳(メタデータ) (2022-10-18T19:23:52Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Training for the Future: A Simple Gradient Interpolation Loss to
Generalize Along Time [26.261277497201565]
いくつかの実世界のアプリケーションでは、機械学習モデルがデプロイされ、時間とともに分布が徐々に変化するデータの予測を行う。
本稿では,時間に敏感なパラメータを持つモデルから始める単純な手法を提案する。
論文 参考訳(メタデータ) (2021-08-15T11:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。