論文の概要: Dynamically Addressing Unseen Rumor via Continual Learning
- arxiv url: http://arxiv.org/abs/2104.08775v1
- Date: Sun, 18 Apr 2021 08:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 08:54:41.452828
- Title: Dynamically Addressing Unseen Rumor via Continual Learning
- Title(参考訳): 連続学習による未知のうわさの動的対処
- Authors: Nayeon Lee, Andrea Madotto, Yejin Bang, Pascale Fung
- Abstract要約: 噂のドメイン作成のダイナミクスに応じて,モデルを継続的に更新するための代替ソリューションを提案する。
この新しいアプローチに関連する最大の技術的課題は、新しい学習による以前の学習の壊滅的な忘れです。
- 参考スコア(独自算出の注目度): 39.29914845102368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rumors are often associated with newly emerging events, thus, an ability to
deal with unseen rumors is crucial for a rumor veracity classification model.
Previous works address this issue by improving the model's generalizability,
with an assumption that the model will stay unchanged even after the new
outbreak of an event. In this work, we propose an alternative solution to
continuously update the model in accordance with the dynamics of rumor domain
creations. The biggest technical challenge associated with this new approach is
the catastrophic forgetting of previous learnings due to new learnings. We
adopt continual learning strategies that control the new learnings to avoid
catastrophic forgetting and propose an additional strategy that can jointly be
used to strengthen the forgetting alleviation.
- Abstract(参考訳): 噂は、新しく現れた出来事としばしば関連づけられるため、未発表の噂に対処する能力は、噂のveracity分類モデルにとって不可欠である。
以前の研究では、モデルの一般化性を改善することでこの問題に対処し、イベントの新規発生後もモデルが変わらないと仮定している。
本研究では,うわさ領域生成のダイナミクスに応じて,モデルを継続的に更新する代替手法を提案する。
この新しいアプローチに関連する最大の技術的課題は、新しい学習によって過去の学習が壊滅的に忘れられることだ。
我々は,新しい学習を制御し,破滅的な忘れることを避けるための継続的学習戦略を採用し,その緩和を両立させるための新たな戦略を提案する。
関連論文リスト
- Making Pre-trained Language Models Better Continual Few-Shot Relation
Extractors [15.417833307088637]
連射関係抽出(CFRE)は,新たな関係を連続的に学習するモデルを必要とする実践的問題である。
主な課題は、悲惨な忘れ物と過度に適合することである。
本稿では,事前学習した言語モデルの暗黙的能力を探るために,素早い学習を利用する。
論文 参考訳(メタデータ) (2024-02-24T04:32:44Z) - FALCON: Fairness Learning via Contrastive Attention Approach to
Continual Semantic Scene Understanding in Open World [30.984034111420275]
本稿では,意味的場面理解における連続的学習へのコントラスト的意図的アプローチによるフェアネス学習を提案する。
まず、破滅的な忘れと公平さの問題に対処するために、新しいフェアネス・コントラスト・クラスタリング・ロスを導入する。
そこで本研究では,バックグラウンドシフト問題と未知のクラスを効果的にモデル化する,注目に基づく視覚文法手法を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:07:39Z) - SRIL: Selective Regularization for Class-Incremental Learning [5.810252620242912]
クラスインクリメンタルラーニングは、この課題を克服するために、可塑性と安定性のバランスをとる統合モデルを作成することを目的としている。
本稿では,従来の知識を維持しつつ,新たな知識を受け入れる選択正規化手法を提案する。
CIFAR-100, ImageNet-Subset, ImageNet-Full を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2023-05-09T05:04:35Z) - Adaptively Integrated Knowledge Distillation and Prediction Uncertainty
for Continual Learning [71.43841235954453]
現在のディープラーニングモデルは、新しい知識を継続的に学習するときに、古い知識を破滅的に忘れることに悩まされることが多い。
この問題を軽減する既存の戦略は、古い知識(安定性)の維持と新しい知識(塑性)の学習のトレードオフを解消することが多い。
論文 参考訳(メタデータ) (2023-01-18T05:36:06Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。