論文の概要: IITK@Detox at SemEval-2021 Task 5: Semi-Supervised Learning and Dice
Loss for Toxic Spans Detection
- arxiv url: http://arxiv.org/abs/2104.01566v1
- Date: Sun, 4 Apr 2021 08:39:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:43:56.502815
- Title: IITK@Detox at SemEval-2021 Task 5: Semi-Supervised Learning and Dice
Loss for Toxic Spans Detection
- Title(参考訳): iitk@detox at semeval-2021 task 5: semi-supervised learning and dice loss for toxic spans detection
- Authors: Archit Bansal, Abhay Kaushik, Ashutosh Modi
- Abstract要約: SemEval-2021 Task 5 - Toxic Spans Detectionのアプローチと調査結果を紹介します。
タスクの主な目的は、与えられたテキストの毒性が引き起こされる可能性のあるスパンを特定することでした。
本稿では,自己調整ダイスロスを用いた半教師学習と学習の2つの手法について検討する。
- 参考スコア(独自算出の注目度): 2.1012672709024294
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we present our approach and findings for SemEval-2021 Task 5 -
Toxic Spans Detection. The task's main aim was to identify spans to which a
given text's toxicity could be attributed. The task is challenging mainly due
to two constraints: the small training dataset and imbalanced class
distribution. Our paper investigates two techniques, semi-supervised learning
and learning with Self-Adjusting Dice Loss, for tackling these challenges. Our
submitted system (ranked ninth on the leader board) consisted of an ensemble of
various pre-trained Transformer Language Models trained using either of the
above-proposed techniques.
- Abstract(参考訳): 本研究では,SemEval-2021 Task 5 Toxic Spans Detectionに対するアプローチと結果を示す。
タスクの主な目的は、特定のテキストの毒性が引き起こされる可能性のあるスパンを特定することであった。
このタスクは主に、小さなトレーニングデータセットと不均衡なクラス分散という2つの制約によって難しい。
本稿では,これらの課題に取り組むために,自己調整型ダイス損失を伴う半教師付き学習と学習の2つの手法について検討する。
提案システム(リーダボードで9位)は,上記のいずれかを用いて訓練した各種事前学習トランスフォーマー言語モデルのアンサンブルで構成された。
関連論文リスト
- Strategies to Harness the Transformers' Potential: UNSL at eRisk 2023 [0.9208007322096532]
CLEF eRisk Laboratoryは、インターネット上のリスク検出に関連するさまざまなタスクに対するソリューションを探索している。
2023年版では,第1タスクはうつ病の症状を検索し,BDIアンケートの症状との関連性に応じて利用者の文章を抽出することを目的としていた。
課題2は,病的ギャンブルリスクの早期発見の問題であり,参加者は可能な限り早くユーザを検知しなければならなかった。
第3タスクは、摂食障害の徴候の重症度を推定することであった。
論文 参考訳(メタデータ) (2023-10-30T19:34:33Z) - Adding Instructions during Pretraining: Effective Way of Controlling
Toxicity in Language Models [29.505176809305095]
本稿では,その実用性を損なうことなく,モデル毒性を大幅に低減する2つの新しい事前学習データ拡張戦略を提案する。
この2つの戦略は,(1)MEDA:メタデータとして生毒性スコアを付加し,(2)INST:それらの毒性を示すサンプルに指示を加えることである。
以上の結果から,最も優れた性能戦略(INST)は,5つのベンチマークNLPタスクの精度を維持しつつ,毒性の確率を61%まで大幅に低下させることが示唆された。
論文 参考訳(メタデータ) (2023-02-14T23:00:42Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Active Multi-Task Representation Learning [50.13453053304159]
本研究は,アクティブラーニングの手法を活用することで,資源タスクのサンプリングに関する最初の公式な研究を行う。
提案手法は, 対象タスクに対する各ソースタスクの関連性を反復的に推定し, その関連性に基づいて各ソースタスクからサンプルを抽出するアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-02T08:23:24Z) - UoB at SemEval-2021 Task 5: Extending Pre-Trained Language Models to
Include Task and Domain-Specific Information for Toxic Span Prediction [0.8376091455761259]
Toxicityはソーシャルメディアで広く普及しており、オンラインコミュニティの健康に大きな脅威をもたらしている。
近年,多くのNLPタスクにおいて最先端の成果を達成している事前学習型言語モデルの導入により,自然言語処理へのアプローチ方法が変化している。
論文 参考訳(メタデータ) (2021-10-07T18:29:06Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z) - UPB at SemEval-2021 Task 5: Virtual Adversarial Training for Toxic Spans
Detection [0.7197592390105455]
Semeval-2021, Task 5 - Toxic Spans DetectionはJigsaw Unintended Biasデータセットのサブセットの新たなアノテーションに基づいている。
このタスクでは、参加者はメッセージに有害な短いコメントで文字スパンを自動的に検出しなければならなかった。
本モデルは,トランスフォーマーベースモデルの微調整過程において,半教師付き環境で仮想適応トレーニングを適用することを検討する。
論文 参考訳(メタデータ) (2021-04-17T19:42:12Z) - WLV-RIT at SemEval-2021 Task 5: A Neural Transformer Framework for
Detecting Toxic Spans [2.4737119633827174]
近年,ソーシャルメディアの普及により,オンラインプラットフォーム上での有害コンテンツや攻撃コンテンツの発生が増加している。
ソーシャルメディアプラットフォームは自動検出手法の開発に取り組んでおり、この攻撃的コンテンツの混乱に対処するために人間のモデレーターを使用している。
論文 参考訳(メタデータ) (2021-04-09T22:52:26Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。