論文の概要: Dynamically Addressing Unseen Rumor via Continual Learning
- arxiv url: http://arxiv.org/abs/2104.08775v1
- Date: Sun, 18 Apr 2021 08:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 08:54:41.452828
- Title: Dynamically Addressing Unseen Rumor via Continual Learning
- Title(参考訳): 連続学習による未知のうわさの動的対処
- Authors: Nayeon Lee, Andrea Madotto, Yejin Bang, Pascale Fung
- Abstract要約: 噂のドメイン作成のダイナミクスに応じて,モデルを継続的に更新するための代替ソリューションを提案する。
この新しいアプローチに関連する最大の技術的課題は、新しい学習による以前の学習の壊滅的な忘れです。
- 参考スコア(独自算出の注目度): 39.29914845102368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rumors are often associated with newly emerging events, thus, an ability to
deal with unseen rumors is crucial for a rumor veracity classification model.
Previous works address this issue by improving the model's generalizability,
with an assumption that the model will stay unchanged even after the new
outbreak of an event. In this work, we propose an alternative solution to
continuously update the model in accordance with the dynamics of rumor domain
creations. The biggest technical challenge associated with this new approach is
the catastrophic forgetting of previous learnings due to new learnings. We
adopt continual learning strategies that control the new learnings to avoid
catastrophic forgetting and propose an additional strategy that can jointly be
used to strengthen the forgetting alleviation.
- Abstract(参考訳): 噂は、新しく現れた出来事としばしば関連づけられるため、未発表の噂に対処する能力は、噂のveracity分類モデルにとって不可欠である。
以前の研究では、モデルの一般化性を改善することでこの問題に対処し、イベントの新規発生後もモデルが変わらないと仮定している。
本研究では,うわさ領域生成のダイナミクスに応じて,モデルを継続的に更新する代替手法を提案する。
この新しいアプローチに関連する最大の技術的課題は、新しい学習によって過去の学習が壊滅的に忘れられることだ。
我々は,新しい学習を制御し,破滅的な忘れることを避けるための継続的学習戦略を採用し,その緩和を両立させるための新たな戦略を提案する。
関連論文リスト
- Continual Task Learning through Adaptive Policy Self-Composition [54.95680427960524]
CompoFormerは構造ベースの連続トランスフォーマーモデルであり、メタポリシックネットワークを介して、以前のポリシーを適応的に構成する。
実験の結果,CompoFormerは従来の継続学習法(CL)よりも優れており,特にタスクシーケンスが長いことが判明した。
論文 参考訳(メタデータ) (2024-11-18T08:20:21Z) - Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - ReconBoost: Boosting Can Achieve Modality Reconcilement [89.4377895465204]
我々は、調和を達成するために、モダリティ代替学習パラダイムについて研究する。
固定モードを毎回更新するReconBoostと呼ばれる新しい手法を提案する。
提案手法はFriedman's Gradient-Boosting (GB) アルゴリズムに似ており,更新された学習者が他者による誤りを訂正できることを示す。
論文 参考訳(メタデータ) (2024-05-15T13:22:39Z) - Making Pre-trained Language Models Better Continual Few-Shot Relation
Extractors [15.417833307088637]
連射関係抽出(CFRE)は,新たな関係を連続的に学習するモデルを必要とする実践的問題である。
主な課題は、悲惨な忘れ物と過度に適合することである。
本稿では,事前学習した言語モデルの暗黙的能力を探るために,素早い学習を利用する。
論文 参考訳(メタデータ) (2024-02-24T04:32:44Z) - FALCON: Fairness Learning via Contrastive Attention Approach to Continual Semantic Scene Understanding [28.880226459932146]
本稿では,意味的場面理解における連続的学習へのコントラスト的意図的アプローチによるフェアネス学習を提案する。
まず、破滅的な忘れと公平さの問題に対処するために、新しいフェアネス・コントラスト・クラスタリング・ロスを導入する。
そこで本研究では,バックグラウンドシフト問題と未知のクラスを効果的にモデル化する,注目に基づく視覚文法手法を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:07:39Z) - Adaptively Integrated Knowledge Distillation and Prediction Uncertainty
for Continual Learning [71.43841235954453]
現在のディープラーニングモデルは、新しい知識を継続的に学習するときに、古い知識を破滅的に忘れることに悩まされることが多い。
この問題を軽減する既存の戦略は、古い知識(安定性)の維持と新しい知識(塑性)の学習のトレードオフを解消することが多い。
論文 参考訳(メタデータ) (2023-01-18T05:36:06Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。