論文の概要: Nexus at ArAIEval Shared Task: Fine-Tuning Arabic Language Models for
Propaganda and Disinformation Detection
- arxiv url: http://arxiv.org/abs/2311.03184v1
- Date: Mon, 6 Nov 2023 15:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:01:29.015912
- Title: Nexus at ArAIEval Shared Task: Fine-Tuning Arabic Language Models for
Propaganda and Disinformation Detection
- Title(参考訳): Nexus at ArAIEval Shared Task: Fine-Tuning Arabic Language Models for Propaganda and Disinformation Detection
- Authors: Yunze Xiao, Firoj Alam
- Abstract要約: 偽情報やプロパガンダ的内容の拡散は、社会的調和の脅威となる。
オンラインプラットフォームはそのようなコンテンツのための育ちの場として機能し、悪意のあるアクターは聴衆の脆弱性を利用して世論を形成する。
ArAIEval共有タスクは、アラビア語の文脈内でこれらの特定の問題についてさらなる研究を行うことを目的としている。
- 参考スコア(独自算出の注目度): 12.021657107184383
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The spread of disinformation and propagandistic content poses a threat to
societal harmony, undermining informed decision-making and trust in reliable
sources. Online platforms often serve as breeding grounds for such content, and
malicious actors exploit the vulnerabilities of audiences to shape public
opinion. Although there have been research efforts aimed at the automatic
identification of disinformation and propaganda in social media content, there
remain challenges in terms of performance. The ArAIEval shared task aims to
further research on these particular issues within the context of the Arabic
language. In this paper, we discuss our participation in these shared tasks. We
competed in subtasks 1A and 2A, where our submitted system secured positions
9th and 10th, respectively. Our experiments consist of fine-tuning transformer
models and using zero- and few-shot learning with GPT-4.
- Abstract(参考訳): 偽情報やプロパガンダ的コンテンツの拡散は社会調和の脅威となり、信頼できる情報源に対する情報的な意思決定と信頼を損なう。
オンラインプラットフォームはそのようなコンテンツの繁殖地として機能することが多く、悪意のある俳優は聴衆の脆弱性を利用して世論を形作る。
ソーシャルメディアコンテンツにおける偽情報やプロパガンダの自動識別を目的とした研究も行われているが、パフォーマンス面ではまだ課題が残っている。
ArAIEval共有タスクは、アラビア語の文脈内でこれらの特定の問題についてさらなる研究を行うことを目的としている。
本稿では,これらの共有タスクへの参加について論じる。
我々はサブタスク1Aと2Aに出場し,提案システムはそれぞれ第9位と第10位を確保した。
実験は微調整トランスフォーマーモデルとgpt-4を用いたゼロ・マイショット学習を用いた。
関連論文リスト
- PropaInsight: Toward Deeper Understanding of Propaganda in Terms of Techniques, Appeals, and Intent [71.20471076045916]
プロパガンダは世論の形成と偽情報の拡散に重要な役割を果たしている。
Propainsightはプロパガンダを体系的に、技術、覚醒的魅力、そして根底にある意図に分解する。
Propagazeは、人間の注釈付きデータと高品質な合成データを組み合わせる。
論文 参考訳(メタデータ) (2024-09-19T06:28:18Z) - The FIGNEWS Shared Task on News Media Narratives [17.72844013954972]
ACL 2024と共同で開催されるアラビアNLP 2024会議の一環として組織されたFIGNEWS共有タスクの概要を紹介する。
共有タスクは多言語ニュース投稿におけるバイアスとプロパガンダアノテーションに対処する。
我々はイスラエル戦争初期のガザに関するケーススタディに焦点をあてる。
我々はこの問題を多言語の観点から解決し、英語、フランス語、アラビア語、ヘブライ語、ヒンディー語という5つの言語で解決する。
論文 参考訳(メタデータ) (2024-07-25T15:58:19Z) - ArAIEval Shared Task: Propagandistic Techniques Detection in Unimodal and Multimodal Arabic Content [9.287041393988485]
我々は、ACL 2024と共同で開催されるアラビア2024会議の一環として組織された、ArAIEval共有タスクの第2版の概要を示す。
この版では、(i)つぶやきやニュース記事の特定による宣伝的テキストスパンの検出、(ii)プロパガンダ主義と非プロパガンダ主義のミームを区別する2つのタスクが提供されている。
最終評価フェーズには14チームが参加し、それぞれ6チームと9チームがタスク1と2に参加した。
論文 参考訳(メタデータ) (2024-07-05T04:28:46Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Detecting adversaries in Crowdsourcing [71.20185379303479]
本研究は, クラウドソース型分類における敵の影響を, 人気のダウィド・アンド・スケネモデルを用いて検討する。
敵は、クラウドソーシングモデルから任意に逸脱することを許され、潜在的に協力する可能性がある。
我々は,アノテータ応答の2次モーメント構造を利用して,多数の敵を識別し,クラウドソーシングタスクへの影響を軽減するアプローチを開発した。
論文 参考訳(メタデータ) (2021-10-07T15:07:07Z) - Findings of the NLP4IF-2021 Shared Tasks on Fighting the COVID-19
Infodemic and Censorship Detection [23.280506220186425]
NLP4IF-2021共有タスクの結果を示す。
10チームがタスク1にシステムを提出し、1チームがタスク2に参加した。
最高のシステムは、事前訓練されたトランスフォーマーとアンサンブルを使用する。
論文 参考訳(メタデータ) (2021-09-23T06:38:03Z) - Cross-Domain Learning for Classifying Propaganda in Online Contents [67.10699378370752]
本稿では,ラベル付き文書や,ニュースやつぶやきからの文をベースとしたクロスドメイン学習の手法を提案する。
本実験は,本手法の有効性を実証し,移動過程におけるソースやターゲットの様々な構成における困難さと限界を同定する。
論文 参考訳(メタデータ) (2020-11-13T10:19:13Z) - UPB at SemEval-2020 Task 11: Propaganda Detection with Domain-Specific
Trained BERT [0.3437656066916039]
本稿では,新聞記事コンペティションにおけるSemEval-2020, Task 11: Detection of Propaganda Techniques in News Articles competitionについて述べる。
提案手法では,プロパガンダや超党派ニュース記事に事前学習したBERTモデルを特化することを検討する。
提案システムはサブタスクSIで46.060%のF1スコアを獲得し、36チームから5位、32チームから19位、サブタスクTCで54.302%のF1スコアを記録した。
論文 参考訳(メタデータ) (2020-09-11T08:44:14Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - BPGC at SemEval-2020 Task 11: Propaganda Detection in News Articles with
Multi-Granularity Knowledge Sharing and Linguistic Features based Ensemble
Learning [2.8913142991383114]
SemEval 2020 Task-11はニュースプロパガンダ検出のための自動システムの設計を目的としている。
Task-11 は2つのサブタスク、すなわち Span Identification と Technique Classification から構成される。
論文 参考訳(メタデータ) (2020-05-31T19:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。