論文の概要: Continuous Detection, Rapidly React: Unseen Rumors Detection based on
Continual Prompt-Tuning
- arxiv url: http://arxiv.org/abs/2203.11720v1
- Date: Wed, 16 Mar 2022 09:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-27 08:19:51.960111
- Title: Continuous Detection, Rapidly React: Unseen Rumors Detection based on
Continual Prompt-Tuning
- Title(参考訳): 連続検出, 高速反応: 連続プロンプトチューニングに基づく未知の噂検出
- Authors: Yuhui Zuo, Wei Zhu, Guoyong Cai
- Abstract要約: 本稿では,逐次的タスク学習における上流タスクの破滅的な忘れ込みを回避するための連続的プロンプト・チューニングRD(CPT-RD)フレームワークを提案する。
CPT-RDは、英語および中国語の噂検出データセットに基づいて評価される。
- 参考スコア(独自算出の注目度): 5.30299372798786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since open social platforms allow for a large and continuous flow of
unverified information, rumors can emerge unexpectedly and spread quickly.
However, existing rumor detection (RD) models often assume the same training
and testing distributions and cannot cope with the continuously changing social
network environment. This paper proposes a Continual Prompt-Tuning RD (CPT-RD)
framework, which avoids catastrophic forgetting of upstream tasks during
sequential task learning and enables knowledge transfer between domain tasks.
To avoid forgetting, we optimize and store task-special soft-prompt for each
domain. Furthermore, we also propose several strategies to transfer knowledge
of upstream tasks to deal with emergencies and a task-conditioned prompt-wise
hypernetwork (TPHNet) to consolidate past domains, enabling bidirectional
knowledge transfer. Finally, CPT-RD is evaluated on English and Chinese RD
datasets and is effective and efficient compared to state-of-the-art baselines,
without data replay techniques and with only a few parameter tuning.
- Abstract(参考訳): オープンなソーシャルプラットフォームは、不確実な情報の大規模かつ継続的な流れを可能にするため、うわさが突然現れ、急速に広まる可能性がある。
しかし、既存のうわさ検出(RD)モデルは、しばしば同じトレーニングとテストの分布を前提としており、継続的に変化するソーシャルネットワーク環境に対処できない。
本稿では,逐次的タスク学習における上流タスクの破滅的な忘れを回避し,ドメインタスク間の知識伝達を可能にする連続的プロンプトチューニングRD(CPT-RD)フレームワークを提案する。
忘れるのを避けるため、各ドメインのタスク専用ソフトプロンプトを最適化し、保存します。
さらに,上流タスクの知識を緊急対応に伝達する戦略や,タスクコンディショニングプロンプトワイズハイパーネットワーク(tphnet)を提案し,双方向知識の転送を可能にした。
最後に、CPT-RDは、英語と中国語のRDデータセットに基づいて評価され、データ再生技術がなく、パラメータチューニングもわずかながら、最先端のベースラインと比較して効率的かつ効率的である。
関連論文リスト
- Continual Diffuser (CoD): Mastering Continual Offline Reinforcement Learning with Experience Rehearsal [54.93261535899478]
強化学習のロボット制御のような現実世界の応用では、タスクが変化し、新しいタスクが順次発生する。
この状況は、タスクの変更に適応し、獲得した知識を保持するエージェントを訓練する上で、可塑性-安定トレードオフという新たな課題を生じさせる。
本研究では,連続拡散器(Continuous diffuser,CoD)と呼ばれるリハーサルに基づく連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-09-04T08:21:47Z) - TemPrompt: Multi-Task Prompt Learning for Temporal Relation Extraction in RAG-based Crowdsourcing Systems [21.312052922118585]
時間的関係抽出(TRE)は、出来事や行動の進化を把握し、関連するタスクのワークフローを形成することを目的としている。
本稿では,TRE(TemPrompt)のためのマルチタスク・プロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T01:52:37Z) - Prompt-Based Spatio-Temporal Graph Transfer Learning [22.855189872649376]
本稿では,データスカース領域における多変数タスクに適応可能なプロンプトベースのフレームワークを提案する。
2段階のパイプラインでドメインとタスクの転送を実現するために、学習可能なプロンプトを採用しています。
実験の結果,STGPは3つのタスクの予測,クリギング,外挿において,最先端のベースラインよりも10.7%向上していることがわかった。
論文 参考訳(メタデータ) (2024-05-21T02:06:40Z) - Solving Continual Offline Reinforcement Learning with Decision Transformer [78.59473797783673]
連続的オフライン強化学習(CORL)は、連続的およびオフライン的な強化学習を組み合わせたものである。
Actor-Critic構造とエクスペリエンス・リプレイ(ER)を取り入れた既存の手法は、分散シフト、低効率、知識共有の弱さに悩まされている。
我々は,マルチヘッドDT (MH-DT) とローランク適応DT (LoRA-DT) を導入し,DTの無視問題を緩和する。
論文 参考訳(メタデータ) (2024-01-16T16:28:32Z) - Distribution-Aware Continual Test-Time Adaptation for Semantic Segmentation [33.75630514826721]
実世界の応用において, セマンティックセグメンテーションCTTAを効率的かつ実用的なものにするための分散対応チューニング(DAT)手法を提案する。
DATは、連続的な適応プロセス中にデータ分布に基づいて、トレーニング可能なパラメータの2つの小さなグループを適応的に選択し、更新する。
我々は2つの広く使われているセマンティックセマンティックセマンティクスCTTAベンチマークで実験を行い、従来の最先端手法と比較して有望な性能を実現した。
論文 参考訳(メタデータ) (2023-09-24T10:48:20Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - Multi-task Over-the-Air Federated Learning: A Non-Orthogonal
Transmission Approach [52.85647632037537]
複数の学習タスクがエッジサーバ(ES)の協調の下でデータ収集および学習モデルのためのエッジデバイスを共有するマルチタスク・オーバーテア・フェデレーション・ラーニング(MOAFL)フレームワークを提案する。
収束解析と数値計算の両方の結果から,MOAFLフレームワークは学習性能を著しく低下させることなく,複数のタスクのアップリンク帯域幅の消費を大幅に削減できることが示された。
論文 参考訳(メタデータ) (2021-06-27T13:09:32Z) - Learning Task-oriented Disentangled Representations for Unsupervised
Domain Adaptation [165.61511788237485]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインとラベルなしターゲットドメインの間のドメインシフト問題に対処することを目的としている。
UDAのための動的タスク指向の非絡合ネットワーク(DTDN)を提案し,非絡合表現をエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2020-07-27T01:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。