論文の概要: BUSTED at AraGenEval Shared Task: A Comparative Study of Transformer-Based Models for Arabic AI-Generated Text Detection
- arxiv url: http://arxiv.org/abs/2510.20610v1
- Date: Thu, 23 Oct 2025 14:41:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.136939
- Title: BUSTED at AraGenEval Shared Task: A Comparative Study of Transformer-Based Models for Arabic AI-Generated Text Detection
- Title(参考訳): BUSTED at AraGenEval Shared Task: アラビアAI生成テキスト検出のためのトランスフォーマーベースモデルの比較検討
- Authors: Ali Zain, Sareem Farooqui, Muhammad Rafi,
- Abstract要約: AraELECTRA, CAMeLBERT, XLM-RoBERTaの3つのプレトレーニングトランスのエフェック性について検討した。
マルチリンガルのXLM-RoBERTaモデルはF1スコア0.7701で最高性能を達成し、スペンサー化アラビアモデルを上回った。
- 参考スコア(独自算出の注目度): 0.5735035463793009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper details our submission to the Ara- GenEval Shared Task on Arabic AI-generated text detection, where our team, BUSTED, se- cured 5th place. We investigated the effec- tiveness of three pre-trained transformer mod- els: AraELECTRA, CAMeLBERT, and XLM- RoBERTa. Our approach involved fine-tuning each model on the provided dataset for a binary classification task. Our findings revealed a sur- prising result: the multilingual XLM-RoBERTa model achieved the highest performance with an F1 score of 0.7701, outperforming the spe- cialized Arabic models. This work underscores the complexities of AI-generated text detection and highlights the strong generalization capa- bilities of multilingual models.
- Abstract(参考訳): 本稿は、アラビアのAI生成テキスト検出に関するAra-GenEval Shared Taskへの提出について詳述する。
AraELECTRA, CAMeLBERT, XLM-RoBERTaの3つのプレトレーニングトランスのエフェック性について検討した。
提案手法では,バイナリ分類タスクのデータセットに対して,各モデルを微調整する。
マルチリンガルXLM-RoBERTaモデルはF1スコア0.7701で最高性能を達成し,spe-cialized Arabicモデルよりも優れていた。
この研究は、AIが生成するテキスト検出の複雑さを強調し、多言語モデルの強力な一般化キャパビリティを強調している。
関連論文リスト
- Assessing Classical Machine Learning and Transformer-based Approaches for Detecting AI-Generated Research Text [0.0]
機械学習アプローチは、ChatGPT-3.5生成したテキストと人間のテキストを区別することができる。
DistilBERTは全体的な最高のパフォーマンスを達成し、Logistic RegressionとBERT-Customはしっかりとしたバランスの取れた代替手段を提供する。
論文 参考訳(メタデータ) (2025-09-20T04:36:21Z) - Sarang at DEFACTIFY 4.0: Detecting AI-Generated Text Using Noised Data and an Ensemble of DeBERTa Models [0.0]
本稿では,AI生成テキストの検出に有効な手法を提案する。
Defactify 4.0共有タスクのために、マルチモーダルな事実チェックとヘイトスピーチ検出に関する第4ワークショップで開発された。
私たちのチーム(Sarang)は、それぞれ1.0点と0.9531点のF1スコアで、両方のタスクで1位を獲得しました。
論文 参考訳(メタデータ) (2025-02-24T05:32:00Z) - LuxVeri at GenAI Detection Task 1: Inverse Perplexity Weighted Ensemble for Robust Detection of AI-Generated Text across English and Multilingual Contexts [0.8495482945981923]
本稿では,AI生成コンテンツの検出に関するコリング2025ワークショップのタスク1のために開発されたシステムについて述べる。
提案手法では,各モデルの逆パープレキシティに応じて重みが割り当てられたモデルのアンサンブルを利用して,分類精度を向上させる。
本研究は, 単言語と多言語の両方において, 機械によるテキスト検出の堅牢性を向上させるために, 逆パープレキシティ重み付けの有効性を示すものである。
論文 参考訳(メタデータ) (2025-01-21T06:32:32Z) - CATT: Character-based Arabic Tashkeel Transformer [0.0]
タシュケル(Tashkeel)は、アラビア語のテキストの理解を大幅に強化する。
本稿では,ATDモデルのトレーニングに新たなアプローチを提案する。
11の商用およびオープンソースモデルとともに、当社のモデルを評価します。
論文 参考訳(メタデータ) (2024-07-03T16:05:20Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - AraBART: a Pretrained Arabic Sequence-to-Sequence Model for Abstractive
Summarization [23.540743628126837]
BARTに基づいてエンコーダとデコーダを事前訓練した最初のアラビアモデルであるAraBARTを提案する。
AraBARTは複数の抽象的な要約データセット上で最高の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-03-21T13:11:41Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - Exemplar-Controllable Paraphrasing and Translation using Bitext [57.92051459102902]
私たちは、バイリンガルテキスト(bitext)からのみ学ぶことができるように、以前の作業からモデルを適用する。
提案した1つのモデルでは、両言語で制御されたパラフレーズ生成と、両言語で制御された機械翻訳の4つのタスクを実行することができる。
論文 参考訳(メタデータ) (2020-10-12T17:02:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。