論文の概要: Leveraging Sentiment for Offensive Text Classification
- arxiv url: http://arxiv.org/abs/2412.17825v1
- Date: Mon, 09 Dec 2024 20:27:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-29 08:29:30.757304
- Title: Leveraging Sentiment for Offensive Text Classification
- Title(参考訳): 攻撃的テキスト分類のためのレバレッジ感
- Authors: Khondoker Ittehadul Islam,
- Abstract要約: SemEval 2019タスク6、OLID、データセットで実験を行います。
事前学習した言語モデルを用いて各インスタンスの感情を予測する。
OLIDテストセットで最高の性能を得たモデルを選択し、それを拡張OLIDセットでトレーニングし、パフォーマンスを分析します。
- 参考スコア(独自算出の注目度): 0.10878040851638002
- License:
- Abstract: In this paper, we conduct experiment to analyze whether models can classify offensive texts better with the help of sentiment. We conduct this experiment on the SemEval 2019 task 6, OLID, dataset. First, we utilize pre-trained language models to predict the sentiment of each instance. Later we pick the model that achieved the best performance on the OLID test set, and train it on the augmented OLID set to analyze the performance. Results show that utilizing sentiment increases the overall performance of the model.
- Abstract(参考訳): 本稿では、モデルが感情の助けを借りて攻撃的テキストをよりよく分類できるかどうかを分析する実験を行う。
本実験は,SemEval 2019タスク6,OLID,データセットで実施する。
まず、事前訓練された言語モデルを用いて各インスタンスの感情を予測する。
その後、OLIDテストセットで最高のパフォーマンスを達成したモデルを選択し、それを拡張OLIDセットでトレーニングしてパフォーマンスを分析します。
その結果,感情の活用によりモデル全体の性能が向上することがわかった。
関連論文リスト
- Expanding Vietnamese SentiWordNet to Improve Performance of Vietnamese Sentiment Analysis Models [0.0]
本稿ではベトナム語レビューの感性分析のためのPhoBERT-V2とSentiWordnetを組み合わせた新しいアプローチを提案する。
提案モデルではベトナム語に対してPhoBERT-V2を用いて,ベトナム語の文脈における顕著なBERTモデルのロバストな最適化を行う。
論文 参考訳(メタデータ) (2025-01-15T12:22:37Z) - Ensembling Finetuned Language Models for Text Classification [55.15643209328513]
ファインタニング(英: Finetuning)は、特定のタスクに事前訓練されたモデルを適用するために、様々なコミュニティで一般的なプラクティスである。
ニューラルネットワークのアンサンブルは、通常、パフォーマンスを高め、信頼性の高い不確実性推定を提供するために使用される。
6つのデータセット上の5つの大きめのモデルから予測されたメタデータセットを提示し、異なるアンサンブル戦略の結果を報告する。
論文 参考訳(メタデータ) (2024-10-25T09:15:54Z) - Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Keeping in Time: Adding Temporal Context to Sentiment Analysis Models [0.0]
本稿では,LongEval CLEF 2023 Lab Task 2:LongEval-Classificationに対する最先端のソリューションを提案する。
本研究の目的は、感情分析モデルの性能を短時間・長期にわたって改善・維持することである。
論文 参考訳(メタデータ) (2023-09-24T06:38:21Z) - Extensive Evaluation of Transformer-based Architectures for Adverse Drug
Events Extraction [6.78974856327994]
逆イベント(ADE)抽出は、デジタル製薬における中核的なタスクの1つである。
我々は、非公式テキストを用いたADE抽出のための19のトランスフォーマーモデルを評価する。
分析の最後には、実験データから導出可能なテイクホームメッセージのリストを同定する。
論文 参考訳(メタデータ) (2023-06-08T15:25:24Z) - Effective Robustness against Natural Distribution Shifts for Models with
Different Training Data [113.21868839569]
効果的ロバスト性」は、分配内(ID)性能から予測できる以上の余分な分配外ロバスト性を測定する。
異なるデータに基づいてトレーニングされたモデルの有効ロバスト性を評価・比較するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-02-02T19:28:41Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - Adapting a Language Model for Controlled Affective Text Generation [2.9267797650223653]
我々は、感情的な(感情的な)テキストを生成するために、最先端の言語生成モデルを適用する。
我々は,GPT-2のような確率論的テキスト生成モデルにおいて,感情を先行として組み込むことを提案する。
このモデルは、ユーザが生成したテキストのトピックだけでなく、感情のカテゴリや強度を制御する柔軟性を提供する。
論文 参考訳(メタデータ) (2020-11-08T15:24:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。