論文の概要: Investigating Persuasion Techniques in Arabic: An Empirical Study Leveraging Large Language Models
- arxiv url: http://arxiv.org/abs/2405.12884v1
- Date: Tue, 21 May 2024 15:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 12:50:33.574343
- Title: Investigating Persuasion Techniques in Arabic: An Empirical Study Leveraging Large Language Models
- Title(参考訳): アラビア語における説得技術の調査:大規模言語モデルを活用した実証的研究
- Authors: Abdurahmman Alzahrani, Eyad Babkier, Faisal Yanbaawi, Firas Yanbaawi, Hassan Alhuzali,
- Abstract要約: 本稿では、アラビアのソーシャルメディアコンテンツにおける説得的手法の同定に焦点をあてた総合的な実証的研究について述べる。
我々は、プレトレーニング言語モデル(PLM)を利用し、ArAlEvalデータセットを活用する。
本研究では,PLMの力を活用した3つの学習手法について検討した。
- 参考スコア(独自算出の注目度): 0.13980986259786224
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the current era of digital communication and widespread use of social media, it is crucial to develop an understanding of persuasive techniques employed in written text. This knowledge is essential for effectively discerning accurate information and making informed decisions. To address this need, this paper presents a comprehensive empirical study focused on identifying persuasive techniques in Arabic social media content. To achieve this objective, we utilize Pre-trained Language Models (PLMs) and leverage the ArAlEval dataset, which encompasses two tasks: binary classification to determine the presence or absence of persuasion techniques, and multi-label classification to identify the specific types of techniques employed in the text. Our study explores three different learning approaches by harnessing the power of PLMs: feature extraction, fine-tuning, and prompt engineering techniques. Through extensive experimentation, we find that the fine-tuning approach yields the highest results on the aforementioned dataset, achieving an f1-micro score of 0.865 and an f1-weighted score of 0.861. Furthermore, our analysis sheds light on an interesting finding. While the performance of the GPT model is relatively lower compared to the other approaches, we have observed that by employing few-shot learning techniques, we can enhance its results by up to 20\%. This offers promising directions for future research and exploration in this topic\footnote{Upon Acceptance, the source code will be released on GitHub.}.
- Abstract(参考訳): 現代におけるデジタルコミュニケーションとソーシャルメディアの普及は,テキストにおける説得的手法の理解を深めることが不可欠である。
この知識は、正確な情報を効果的に識別し、情報的な決定を下すのに不可欠である。
このニーズに対処するため,アラビアのソーシャルメディアコンテンツにおける説得的手法の同定に焦点をあてた総合的な実証的研究を行った。
この目的を達成するために,事前学習言語モデル(PLM)を用いて,2つのタスクを含むArAlEvalデータセットを利用する。
本研究では,PLMの能力を利用した3つの学習手法について検討した。
大規模な実験により, 上述したデータセットにおいて, 微調整法が最も高い結果が得られ, f1-micro score 0.865 と f1-weighted score 0.861 が得られることがわかった。
さらに、我々の分析は興味深い発見に光を当てている。
GPTモデルの性能は他の手法に比べて相対的に低いが,数ショットの学習技術を用いることで,最大20倍の精度で結果を向上できることがわかった。
これは、このトピックで将来の研究と調査のための有望な方向を提供する。
と。
関連論文リスト
- Why do you cite? An investigation on citation intents and decision-making classification processes [1.7812428873698407]
本研究は,引用意図を信頼して分類することの重要性を強調する。
本稿では,citation Intent Classification (CIC) のための高度なアンサンブル戦略を用いた研究について述べる。
我々のモデルの1つは、SciCiteベンチマークで89.46%のマクロF1スコアを持つ新しい最先端(SOTA)として設定されている。
論文 参考訳(メタデータ) (2024-07-18T09:29:33Z) - Review of Deep Representation Learning Techniques for Brain-Computer Interfaces and Recommendations [0.0]
本稿では,BCI復号のための深層表現学習技術を用いて,論文コレクションから経験的知見を合成する。
81記事のうち,オートエンコーダを用いた31記事の優位性を明らかにした。
これらはいずれも、BCIコミュニティによって拾われる標準基盤モデルに導かれていない。
論文 参考訳(メタデータ) (2024-05-17T14:00:11Z) - Capture the Flag: Uncovering Data Insights with Large Language Models [90.47038584812925]
本研究では,Large Language Models (LLMs) を用いてデータの洞察の発見を自動化する可能性について検討する。
そこで本稿では,データセット内の意味的かつ関連する情報(フラグ)を識別する能力を測定するために,フラグを捕捉する原理に基づく新しい評価手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T14:20:06Z) - Large Language Models for Propaganda Span Annotation [11.64165958410489]
GPT-4のような大規模言語モデル(LLM)が効果的にタスクを実行できるかどうかを検討する。
さまざまな専門知識を持つアノテータからのアノテーションで構成された大規模な社内データセットを使用します。
GPT-4を含む複数のアノテータから収集したスパンレベルラベルをコミュニティに提供する予定です。
論文 参考訳(メタデータ) (2023-11-16T11:37:54Z) - Exploring the Power of Topic Modeling Techniques in Analyzing Customer
Reviews: A Comparative Analysis [0.0]
大量のテキストデータをオンラインで分析するために、機械学習と自然言語処理アルゴリズムがデプロイされている。
本研究では,顧客レビューに特化して用いられる5つのトピックモデリング手法について検討・比較する。
以上の結果から,BERTopicはより意味のあるトピックを抽出し,良好な結果を得ることができた。
論文 参考訳(メタデータ) (2023-08-19T08:18:04Z) - Large Language Models in the Workplace: A Case Study on Prompt
Engineering for Job Type Classification [58.720142291102135]
本研究では,実環境における職種分類の課題について検討する。
目標は、英語の求職が卒業生やエントリーレベルの地位に適切かどうかを判断することである。
論文 参考訳(メタデータ) (2023-03-13T14:09:53Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Deep Learning Schema-based Event Extraction: Literature Review and
Current Trends [60.29289298349322]
ディープラーニングに基づくイベント抽出技術が研究ホットスポットとなっている。
本稿では,ディープラーニングモデルに焦点をあて,最先端のアプローチを見直し,そのギャップを埋める。
論文 参考訳(メタデータ) (2021-07-05T16:32:45Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。