論文の概要: Dynamic Forecasting of Conversation Derailment
- arxiv url: http://arxiv.org/abs/2110.05111v1
- Date: Mon, 11 Oct 2021 09:33:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 01:41:44.644413
- Title: Dynamic Forecasting of Conversation Derailment
- Title(参考訳): 会話脱線現象の動的予測
- Authors: Yova Kementchedjhieva and Anders S{\o}gaard
- Abstract要約: 事前訓練された言語エンコーダをタスクに適用し、それ以前のアプローチより優れていた。
我々は,タスクのトレーニングパラダイムを静的から動的にシフトさせて,予測の地平線を増大させる実験を行った。
このアプローチは、高品質なデータ設定では、F1の小さなドロップのコストで、より平均的な予測水平線を達成することができ、低品質なデータ設定では、動的トレーニングがノイズを伝播させ、性能に非常に有害である。
- 参考スコア(独自算出の注目度): 8.62483598990205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online conversations can sometimes take a turn for the worse, either due to
systematic cultural differences, accidental misunderstandings, or mere malice.
Automatically forecasting derailment in public online conversations provides an
opportunity to take early action to moderate it. Previous work in this space is
limited, and we extend it in several ways. We apply a pretrained language
encoder to the task, which outperforms earlier approaches. We further
experiment with shifting the training paradigm for the task from a static to a
dynamic one to increase the forecast horizon. This approach shows mixed
results: in a high-quality data setting, a longer average forecast horizon can
be achieved at the cost of a small drop in F1; in a low-quality data setting,
however, dynamic training propagates the noise and is highly detrimental to
performance.
- Abstract(参考訳): 組織的な文化的相違、偶然の誤解、あるいは単なる悪意のために、オンライン会話は時にさらに悪化する。
公共のオンライン会話における脱線を自動予測することは、それを緩和するために早期行動を取る機会を提供する。
この領域での以前の作業は限られており、いくつかの方法で拡張しています。
事前訓練された言語エンコーダをタスクに適用し、それ以前のアプローチより優れていた。
さらに,タスクのトレーニングパラダイムを静的から動的へとシフトさせ,予測の地平線を増加させる実験を行った。
このアプローチは、高品質なデータ設定では、F1の小さなドロップのコストで、より平均的な予測水平線を達成することができるが、低品質なデータ設定では、動的トレーニングはノイズを伝播させ、性能に非常に有害である。
関連論文リスト
- Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - TrACT: A Training Dynamics Aware Contrastive Learning Framework for Long-tail Trajectory Prediction [7.3292387742640415]
本稿では,よりリッチなトレーニングダイナミックス情報を,原型的コントラスト学習フレームワークに組み込むことを提案する。
我々は,2つの大規模自然主義データセットを用いたアプローチの実証評価を行った。
論文 参考訳(メタデータ) (2024-04-18T23:12:46Z) - Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Hashing it Out: Predicting Unhealthy Conversations on Twitter [0.17175853976270528]
大規模Twitterコーパス上で事前学習されたアテンションベースのBERTアーキテクチャは,このような予測を行う上で効率的かつ効果的であることを示す。
この研究は、最もユビキタスなソーシャルメディアプラットフォームにおけるより良いインタラクションを促進するための実用的なツールの基礎を築いた。
論文 参考訳(メタデータ) (2023-11-17T15:49:11Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Conversation Modeling to Predict Derailment [15.45515784064555]
進行中の会話が脱線する可能性があるかどうかを予測する能力は、インターロケータやモデレーターに貴重なリアルタイム洞察を提供する可能性がある。
会話が発達するにつれて動的予測を試みようとする研究もあるが、会話構造や脱線距離といった多元的情報を組み込むことは困難である。
本稿では,発話レベルと会話レベルの情報を組み合わせた階層型トランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-20T15:10:45Z) - SPIRAL: Self-supervised Perturbation-Invariant Representation Learning
for Speech Pre-Training [25.80559992732508]
SPIRALは、教師/学生のフレームワークにおいて、摂動データの表現を聴覚的に学習することで機能する。
本稿では,実環境における音声応用において重要なノイズ・ロバスト性の問題に対処する。
論文 参考訳(メタデータ) (2022-01-25T09:53:36Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Exploring Fine-tuning Techniques for Pre-trained Cross-lingual Models
via Continual Learning [74.25168207651376]
訓練済みの言語モデルから下流の言語間タスクへの微調整は、有望な結果を示している。
ダウンストリームタスクに微調整する場合、継続学習を活用して、事前学習したモデルの言語間能力を維持する。
提案手法は、ゼロショット言語間タグ付けや名前付きエンティティ認識タスクにおいて、他の微調整ベースラインよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-04-29T14:07:18Z) - Recall and Learn: Fine-tuning Deep Pretrained Language Models with Less
Forgetting [66.45372974713189]
本稿では,マルチタスク学習の概念を取り入れたリコール・アンド・ラーニング機構を提案し,事前学習タスクと下流タスクを共同で学習する。
実験により,本手法はGLUEベンチマークの最先端性能を実現することが示された。
我々はオープンソースのRecAdamを提供し、提案されたメカニズムをAdamに統合し、NLPコミュニティを施設化する。
論文 参考訳(メタデータ) (2020-04-27T08:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。