論文の概要: AI-generated Text Detection: A Multifaceted Approach to Binary and Multiclass Classification
- arxiv url: http://arxiv.org/abs/2505.11550v1
- Date: Thu, 15 May 2025 09:28:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.695235
- Title: AI-generated Text Detection: A Multifaceted Approach to Binary and Multiclass Classification
- Title(参考訳): AI生成テキスト検出:バイナリとマルチクラス分類への多面的アプローチ
- Authors: Harika Abburi, Sanmitra Bhattacharya, Edward Bowen, Nirmala Pudota,
- Abstract要約: 大規模言語モデル(LLM)は、人間の文章によく似たテキストを生成する際、顕著な能力を示した。
このような機能は、偽ニュース生成、スパムメールの作成、学術的課題における誤用など、潜在的な誤用につながる。
最適化されたモデルとより単純なバリエーションの2つのニューラルアーキテクチャを提案する。
タスクAでは、最適化されたニューラルアーキテクチャが0.994ドルのF1$スコアで5位、タスクBでは、単純なニューラルアーキテクチャが0.627のF1$スコアで5位にランクインした。
- 参考スコア(独自算出の注目度): 0.13392361199400257
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities in generating text that closely resembles human writing across a wide range of styles and genres. However, such capabilities are prone to potential misuse, such as fake news generation, spam email creation, and misuse in academic assignments. As a result, accurate detection of AI-generated text and identification of the model that generated it are crucial for maintaining the responsible use of LLMs. In this work, we addressed two sub-tasks put forward by the Defactify workshop under AI-Generated Text Detection shared task at the Association for the Advancement of Artificial Intelligence (AAAI 2025): Task A involved distinguishing between human-authored or AI-generated text, while Task B focused on attributing text to its originating language model. For each task, we proposed two neural architectures: an optimized model and a simpler variant. For Task A, the optimized neural architecture achieved fifth place with $F1$ score of 0.994, and for Task B, the simpler neural architecture also ranked fifth place with $F1$ score of 0.627.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広いスタイルやジャンルにわたる人間の文章によく似たテキストを生成する際、顕著な能力を示した。
しかし、このような機能は、偽ニュース生成、スパムメールの作成、学術的課題における誤用など、潜在的に誤用する傾向にある。
その結果、AI生成したテキストの正確な検出と生成したモデルの同定は、LCMの責任を負う使用を維持する上で重要である。
本研究では,人工知能振興協会(AAAI 2025: Association for the Advancement of Artificial Intelligence)におけるAI生成テキスト検出共有タスクの下で,Defactifyワークショップが進める2つのサブタスクに対処する。
それぞれのタスクに対して、最適化されたモデルとより単純なバリエーションの2つのニューラルアーキテクチャを提案しました。
タスクAでは、最適化されたニューラルアーキテクチャが0.994ドルのF1$スコアで5位、タスクBでは、単純なニューラルアーキテクチャが0.627のF1$スコアで5位にランクインした。
関連論文リスト
- Sarang at DEFACTIFY 4.0: Detecting AI-Generated Text Using Noised Data and an Ensemble of DeBERTa Models [0.0]
本稿では,AI生成テキストの検出に有効な手法を提案する。
Defactify 4.0共有タスクのために、マルチモーダルな事実チェックとヘイトスピーチ検出に関する第4ワークショップで開発された。
私たちのチーム(Sarang)は、それぞれ1.0点と0.9531点のF1スコアで、両方のタスクで1位を獲得しました。
論文 参考訳(メタデータ) (2025-02-24T05:32:00Z) - LuxVeri at GenAI Detection Task 1: Inverse Perplexity Weighted Ensemble for Robust Detection of AI-Generated Text across English and Multilingual Contexts [0.8495482945981923]
本稿では,AI生成コンテンツの検出に関するコリング2025ワークショップのタスク1のために開発されたシステムについて述べる。
提案手法では,各モデルの逆パープレキシティに応じて重みが割り当てられたモデルのアンサンブルを利用して,分類精度を向上させる。
本研究は, 単言語と多言語の両方において, 機械によるテキスト検出の堅牢性を向上させるために, 逆パープレキシティ重み付けの有効性を示すものである。
論文 参考訳(メタデータ) (2025-01-21T06:32:32Z) - GigaCheck: Detecting LLM-generated Content [72.27323884094953]
本稿では,GigaCheckを提案することによって生成したテキスト検出の課題について検討する。
本研究は,LLM生成テキストとLLM生成テキストを区別する手法と,Human-Machine協調テキストにおけるLLM生成間隔を検出する手法について検討する。
具体的には,テキスト内のAI生成間隔をローカライズするために,コンピュータビジョンから適応したDETRのような検出モデルと組み合わせて,微調整の汎用LLMを用いる。
論文 参考訳(メタデータ) (2024-10-31T08:30:55Z) - Is Contrasting All You Need? Contrastive Learning for the Detection and Attribution of AI-generated Text [4.902089836908786]
WhosAIは、与えられた入力テキストが人間かAIによって生成されたかを予測するために設計された3重ネットワークコントラスト学習フレームワークである。
提案するフレームワークは,チューリングテストとオーサリングの両タスクにおいて,優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-07-12T15:44:56Z) - RFBES at SemEval-2024 Task 8: Investigating Syntactic and Semantic
Features for Distinguishing AI-Generated and Human-Written Texts [0.8437187555622164]
本稿では、意味論と構文という2つの異なる側面からAIが生成するテキスト検出の問題について考察する。
マルチリンガルタスクとモノリンガルタスクの両方において,AI生成テキストと人書きテキストを高い精度で区別できるAIモデルを提案する。
論文 参考訳(メタデータ) (2024-02-19T00:40:17Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Generative AI Text Classification using Ensemble LLM Approaches [0.12483023446237698]
大規模言語モデル(LLM)は、さまざまなAIや自然言語処理タスクで素晴らしいパフォーマンスを示している。
本研究では,異なる学習済みLLMから確率を生成するアンサンブルニューラルモデルを提案する。
AIと人間の生成したテキストを区別する最初のタスクとして、私たちのモデルは第5位と第13位にランクされた。
論文 参考訳(メタデータ) (2023-09-14T14:41:46Z) - FacTool: Factuality Detection in Generative AI -- A Tool Augmented
Framework for Multi-Task and Multi-Domain Scenarios [87.12753459582116]
より広い範囲のタスクは、生成モデルによって処理されると、事実エラーを含むリスクが増大する。
大規模言語モデルにより生成されたテキストの事実誤りを検出するためのタスクおよびドメインに依存しないフレームワークであるFacToolを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:51Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。