論文の概要: Falsely Accused: How AI Detectors Misjudge Slightly Polished Arabic Articles
- arxiv url: http://arxiv.org/abs/2511.16690v1
- Date: Sun, 16 Nov 2025 00:15:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.751858
- Title: Falsely Accused: How AI Detectors Misjudge Slightly Polished Arabic Articles
- Title(参考訳): AI検知器がアラビア文字の読み間違いをどうやって犯したのか?
- Authors: Saleh Almohaimeed, Saad Almohaimeed, Mousa Jari, Khaled A. Alobaid, Fahad Alotaibi,
- Abstract要約: 多くのAI検出モデルが、人工知能(AI)によって作成された記事の存在に対抗して開発された。
人間が書いた記事がAIによってわずかに洗練されている場合、これらのAI検出モデルの限界決定にシフトが発生する。
この誤分類は、AI盗作の著者を誤って非難し、AI検出器モデルの信頼性を損なう可能性がある。
- 参考スコア(独自算出の注目度): 0.06524460254566904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many AI detection models have been developed to counter the presence of articles created by artificial intelligence (AI). However, if a human-authored article is slightly polished by AI, a shift will occur in the borderline decision of these AI detection models, leading them to consider it AI-generated article. This misclassification may result in falsely accusing authors of AI plagiarism and harm the credibility of AI detector models. In English, some efforts were made to meet this challenge, but not in Arabic. In this paper, we generated two datasets. The first dataset contains 800 Arabic articles, half AI-generated and half human-authored. We used it to evaluate 14 Large Language models (LLMs) and commercial AI detectors to assess their ability in distinguishing between human-authored and AI-generated articles. The best 8 models were chosen to act as detectors for our primary concern, which is whether they would consider slightly polished human text as AI-generated. The second dataset, Ar-APT, contains 400 Arabic human-authored articles polished by 10 LLMs using 4 polishing settings, totaling 16400 samples. We use it to evaluate the 8 nominated models and determine whether slight polishing will affect their performance. The results reveal that all AI detectors incorrectly attribute a significant number of articles to AI. The best performing LLM, Claude-4 Sonnet, achieved 83.51%, their performance decreased to 57.63% for articles slightly polished by LLaMA-3. Whereas for the best performing commercial model, originality.AI, that achieves 92% accuracy, dropped to 12% for articles slightly polished by Mistral or Gemma-3.
- Abstract(参考訳): 多くのAI検出モデルは、人工知能(AI)によって作成された記事の存在に対抗して開発された。
しかし、人間が書いた記事がAIによってわずかに洗練されている場合、これらのAI検出モデルの境界線決定にシフトが起こり、AI生成記事とみなすことになる。
この誤分類は、AI盗作の著者を誤って非難し、AI検出器モデルの信頼性を損なう可能性がある。
英語では、この挑戦を満たすためにいくつかの努力がなされたが、アラビア語ではそうではなかった。
本稿では,2つのデータセットを作成した。
最初のデータセットには、800のアラビア語記事、半分のAI生成、半分の人間著者が含まれている。
14のLarge Language Model (LLM) と商用AI検出器を用いて、人間が作成した記事とAI生成記事を区別する能力を評価した。
最高の8つのモデルは、私たちの主要な関心事の検知器として機能するために選ばれました。
第2のデータセットであるAr-APTは、400個のアラビア人による論文を10個のLLMで研磨し、4つの研磨設定を使用し、合計16400個のサンプルを含む。
8つの候補モデルを評価し、微精細化がパフォーマンスに影響を及ぼすかどうかを判断するために使用します。
その結果、すべてのAI検出器が誤って大量の記事をAIに関連付けていることが明らかとなった。
LLMの最高性能であるClaude-4 Sonnetは83.51%を達成し、LLaMA-3でわずかに磨かれた品目では57.63%に低下した。
最高の商業モデルである originality.AI は 92% の精度を達成し、Mistral や Gemma-3 によってわずかに磨き上げられた記事に対して 12% まで低下した。
関連論文リスト
- A Comprehensive Dataset for Human vs. AI Generated Text Detection [23.0218614564443]
ニューヨーク・タイムズ紙の記事から58,000件以上のテキストサンプルからなる包括的データセットを提案する。
このデータセットは、オリジナルの記事をプロンプトとして抽象化し、完全な人間による物語を提供する。
AI生成テキストと人書きテキストを区別し、AIテキストを8.92%の精度で生成モデルに関連付けるという2つの重要なタスクのベースライン結果を確立します。
論文 参考訳(メタデータ) (2025-10-26T23:50:52Z) - Assessing GPTZero's Accuracy in Identifying AI vs. Human-Written Essays [0.0]
GPTZeroは最も使われているAI検出器だが、人間によるテキストの識別の信頼性は限られている。
AIが生成した論文の大半が正確に検出され(91-100%のAIが信じていた世代)、一方で人間が生成したエッセイは変動した。
これらの結果は、GPTZeroは純粋にAI生成されたコンテンツを検出するのに有効であるが、人間によるテキストの識別の信頼性は限られていることを示唆している。
論文 参考訳(メタデータ) (2025-06-30T04:53:27Z) - Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - RFBES at SemEval-2024 Task 8: Investigating Syntactic and Semantic
Features for Distinguishing AI-Generated and Human-Written Texts [0.8437187555622164]
本稿では、意味論と構文という2つの異なる側面からAIが生成するテキスト検出の問題について考察する。
マルチリンガルタスクとモノリンガルタスクの両方において,AI生成テキストと人書きテキストを高い精度で区別できるAIモデルを提案する。
論文 参考訳(メタデータ) (2024-02-19T00:40:17Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Can Machines Imitate Humans? Integrative Turing-like tests for Language and Vision Demonstrate a Narrowing Gap [56.611702960809644]
3つの言語タスクと3つの視覚タスクで人間を模倣するAIの能力をベンチマークする。
次に,人間1,916名,AI10名を対象に,72,191名のチューリング様試験を行った。
模倣能力は従来のAIパフォーマンス指標と最小限の相関を示した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。