論文の概要: Nexus at ArAIEval Shared Task: Fine-Tuning Arabic Language Models for
Propaganda and Disinformation Detection
- arxiv url: http://arxiv.org/abs/2311.03184v1
- Date: Mon, 6 Nov 2023 15:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:01:29.015912
- Title: Nexus at ArAIEval Shared Task: Fine-Tuning Arabic Language Models for
Propaganda and Disinformation Detection
- Title(参考訳): Nexus at ArAIEval Shared Task: Fine-Tuning Arabic Language Models for Propaganda and Disinformation Detection
- Authors: Yunze Xiao, Firoj Alam
- Abstract要約: 偽情報やプロパガンダ的内容の拡散は、社会的調和の脅威となる。
オンラインプラットフォームはそのようなコンテンツのための育ちの場として機能し、悪意のあるアクターは聴衆の脆弱性を利用して世論を形成する。
ArAIEval共有タスクは、アラビア語の文脈内でこれらの特定の問題についてさらなる研究を行うことを目的としている。
- 参考スコア(独自算出の注目度): 12.021657107184383
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The spread of disinformation and propagandistic content poses a threat to
societal harmony, undermining informed decision-making and trust in reliable
sources. Online platforms often serve as breeding grounds for such content, and
malicious actors exploit the vulnerabilities of audiences to shape public
opinion. Although there have been research efforts aimed at the automatic
identification of disinformation and propaganda in social media content, there
remain challenges in terms of performance. The ArAIEval shared task aims to
further research on these particular issues within the context of the Arabic
language. In this paper, we discuss our participation in these shared tasks. We
competed in subtasks 1A and 2A, where our submitted system secured positions
9th and 10th, respectively. Our experiments consist of fine-tuning transformer
models and using zero- and few-shot learning with GPT-4.
- Abstract(参考訳): 偽情報やプロパガンダ的コンテンツの拡散は社会調和の脅威となり、信頼できる情報源に対する情報的な意思決定と信頼を損なう。
オンラインプラットフォームはそのようなコンテンツの繁殖地として機能することが多く、悪意のある俳優は聴衆の脆弱性を利用して世論を形作る。
ソーシャルメディアコンテンツにおける偽情報やプロパガンダの自動識別を目的とした研究も行われているが、パフォーマンス面ではまだ課題が残っている。
ArAIEval共有タスクは、アラビア語の文脈内でこれらの特定の問題についてさらなる研究を行うことを目的としている。
本稿では,これらの共有タスクへの参加について論じる。
我々はサブタスク1Aと2Aに出場し,提案システムはそれぞれ第9位と第10位を確保した。
実験は微調整トランスフォーマーモデルとgpt-4を用いたゼロ・マイショット学習を用いた。
関連論文リスト
- Can GPT-4 Identify Propaganda? Annotation and Detection of Propaganda
Spans in News Articles [11.64165958410489]
これまでで最大のプロパガンダデータセットを開発し、23のプロパガンダ手法の分類に従ってテキストスパンレベルにラベル付けされた新聞記事から8K節からなる。
我々の研究は、GPT-4を用いてテキストから微細なプロパガンダ検出を行う大規模言語モデル(LLM)の性能を理解するための最初の試みである。
その結果, GPT-4の性能低下は, 段落を単にプロパガンダ的か否かの分類から, プロパガンダ技術の検出やテキストでの表現のきめ細かいタスクへと移行することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-27T13:02:19Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Overview of the WANLP 2022 Shared Task on Propaganda Detection in Arabic [32.27059493109764]
WANLP 2022ワークショップの一環として、アラビア語のツイートでプロパガンダテクニックを検出するタスクを実行しました。
Subtask1は、マルチラベル分類問題であるツイートで使用されるプロパガンダテクニックのセットを特定するよう要求する。
Subtask2は、各プロパガンダテクニックが現れるテキストの正確なスパンと共に、ツイートで使用されるプロパガンダテクニックを検出するように要求する。
論文 参考訳(メタデータ) (2022-11-18T07:04:31Z) - FacTeR-Check: Semi-automated fact-checking through Semantic Similarity
and Natural Language Inference [61.068947982746224]
FacTeR-Checkは、ファクトチェックされた情報の検索、未確認のクレームの検証、ソーシャルメディア上での危険な情報の追跡を可能にする。
このアーキテクチャは、NLI19-SPと呼ばれる新しいデータセットを使って検証されている。
この結果から,各ベンチマークにおける最先端性能と,61種類のホアックスの時間経過に伴う進化の有用な解析結果が得られた。
論文 参考訳(メタデータ) (2021-10-27T15:44:54Z) - Detecting adversaries in Crowdsourcing [71.20185379303479]
本研究は, クラウドソース型分類における敵の影響を, 人気のダウィド・アンド・スケネモデルを用いて検討する。
敵は、クラウドソーシングモデルから任意に逸脱することを許され、潜在的に協力する可能性がある。
我々は,アノテータ応答の2次モーメント構造を利用して,多数の敵を識別し,クラウドソーシングタスクへの影響を軽減するアプローチを開発した。
論文 参考訳(メタデータ) (2021-10-07T15:07:07Z) - Findings of the NLP4IF-2021 Shared Tasks on Fighting the COVID-19
Infodemic and Censorship Detection [23.280506220186425]
NLP4IF-2021共有タスクの結果を示す。
10チームがタスク1にシステムを提出し、1チームがタスク2に参加した。
最高のシステムは、事前訓練されたトランスフォーマーとアンサンブルを使用する。
論文 参考訳(メタデータ) (2021-09-23T06:38:03Z) - Cross-Domain Learning for Classifying Propaganda in Online Contents [67.10699378370752]
本稿では,ラベル付き文書や,ニュースやつぶやきからの文をベースとしたクロスドメイン学習の手法を提案する。
本実験は,本手法の有効性を実証し,移動過程におけるソースやターゲットの様々な構成における困難さと限界を同定する。
論文 参考訳(メタデータ) (2020-11-13T10:19:13Z) - UPB at SemEval-2020 Task 11: Propaganda Detection with Domain-Specific
Trained BERT [0.3437656066916039]
本稿では,新聞記事コンペティションにおけるSemEval-2020, Task 11: Detection of Propaganda Techniques in News Articles competitionについて述べる。
提案手法では,プロパガンダや超党派ニュース記事に事前学習したBERTモデルを特化することを検討する。
提案システムはサブタスクSIで46.060%のF1スコアを獲得し、36チームから5位、32チームから19位、サブタスクTCで54.302%のF1スコアを記録した。
論文 参考訳(メタデータ) (2020-09-11T08:44:14Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - BPGC at SemEval-2020 Task 11: Propaganda Detection in News Articles with
Multi-Granularity Knowledge Sharing and Linguistic Features based Ensemble
Learning [2.8913142991383114]
SemEval 2020 Task-11はニュースプロパガンダ検出のための自動システムの設計を目的としている。
Task-11 は2つのサブタスク、すなわち Span Identification と Technique Classification から構成される。
論文 参考訳(メタデータ) (2020-05-31T19:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。