論文の概要: LM$^2$otifs : An Explainable Framework for Machine-Generated Texts Detection
- arxiv url: http://arxiv.org/abs/2505.12507v1
- Date: Sun, 18 May 2025 17:55:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.273436
- Title: LM$^2$otifs : An Explainable Framework for Machine-Generated Texts Detection
- Title(参考訳): LM$^2$otifs : 機械生成テキスト検出のための説明可能なフレームワーク
- Authors: Xu Zheng, Zhuomin Chen, Esteban Schafir, Sipeng Chen, Hojat Allah Salehi, Haifeng Chen, Farhad Shirani, Wei Cheng, Dongsheng Luo,
- Abstract要約: 本稿では,MGT検出のための新しいフレームワークLM$2$otifsを提案する。
確率的グラフィカルモデルにインスパイアされた我々は、その効果の理論的根拠を提供する。
LM$2$otifsは、eXplainable Graph Neural Networksを使用して、正確な検出と解釈の両方を実現する。
- 参考スコア(独自算出の注目度): 29.296591488417725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The impressive ability of large language models to generate natural text across various tasks has led to critical challenges in authorship authentication. Although numerous detection methods have been developed to differentiate between machine-generated texts (MGT) and human-generated texts (HGT), the explainability of these methods remains a significant gap. Traditional explainability techniques often fall short in capturing the complex word relationships that distinguish HGT from MGT. To address this limitation, we present LM$^2$otifs, a novel explainable framework for MGT detection. Inspired by probabilistic graphical models, we provide a theoretical rationale for the effectiveness. LM$^2$otifs utilizes eXplainable Graph Neural Networks to achieve both accurate detection and interpretability. The LM$^2$otifs pipeline operates in three key stages: first, it transforms text into graphs based on word co-occurrence to represent lexical dependencies; second, graph neural networks are used for prediction; and third, a post-hoc explainability method extracts interpretable motifs, offering multi-level explanations from individual words to sentence structures. Extensive experiments on multiple benchmark datasets demonstrate the comparable performance of LM$^2$otifs. The empirical evaluation of the extracted explainable motifs confirms their effectiveness in differentiating HGT and MGT. Furthermore, qualitative analysis reveals distinct and visible linguistic fingerprints characteristic of MGT.
- Abstract(参考訳): 大きな言語モデルが様々なタスクにまたがって自然なテキストを生成するという印象的な能力は、オーサシップ認証において重大な課題を引き起こした。
機械生成テキスト (MGT) と人生成テキスト (HGT) を区別するために多くの検出法が開発されているが、これらの方法の説明可能性には大きなギャップが残っている。
従来の説明可能性技術は、HGTとMGTを区別する複雑な単語関係の取得に不足することが多い。
この制限に対処するため、MGT検出のための新しい説明可能なフレームワークLM$^2$otifsを提案する。
確率的グラフィカルモデルにインスパイアされた我々は、その効果の理論的根拠を提供する。
LM$2$otifsは、eXplainable Graph Neural Networksを使用して、正確な検出と解釈の両方を実現する。
LM$2$otifsパイプラインは3つの重要な段階で動作する: 第一に、単語共起に基づいてテキストをグラフに変換して語彙依存を表現する。第二に、グラフニューラルネットワークを予測に使用し、第三に、ポストホックな説明可能性法は解釈可能なモチーフを抽出し、個々の単語から文構造への多段階的な説明を提供する。
複数のベンチマークデータセットに対する大規模な実験は、LM$^2$otifsと同等の性能を示す。
抽出した説明可能なモチーフの実験的評価により,HGTとMGTの識別における効果が確認された。
さらに、定性的分析により、MGTの特徴のある区別された目に見える言語的指紋が明らかになる。
関連論文リスト
- VOILA: Evaluation of MLLMs For Perceptual Understanding and Analogical Reasoning [63.0285363282581]
MLLM(Multimodal Large Language Models)は、視覚情報とテキスト情報を統合するための強力なツールとなっている。
本稿では,MLLMの知覚的理解と抽象的関係推論を評価するためのベンチマークVOILAを紹介する。
我々は,現在のMLLMが画像間関係の理解に苦慮し,高レベルの関係推論において限られた能力を示すことを明らかにした。
論文 参考訳(メタデータ) (2025-02-25T23:36:19Z) - Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - M4GT-Bench: Evaluation Benchmark for Black-Box Machine-Generated Text Detection [69.41274756177336]
大規模言語モデル (LLMs) は様々なチャネルにまたがる機械生成テキスト (MGT) を前例のない急激な増加をもたらした。
このことは、その潜在的な誤用と社会的意味に関する正当な懸念を提起する。
本稿では,MGT-M4GT-Benchの多言語,マルチドメイン,マルチジェネレータコーパスに基づく新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2024-02-17T02:50:33Z) - Towards LLM-guided Causal Explainability for Black-box Text Classifiers [16.36602400590088]
我々は,近年の大規模言語モデルにおける命令追従とテキスト理解機能を活用して,因果的説明可能性を高めることを目指している。
提案する3ステップパイプラインは,既製のLCMを用いて,入力テキスト中の潜時的・未観測な特徴を識別する。
我々は,複数のNLPテキスト分類データセットを用いたパイプライン実験を行い,興味深い,有望な結果を示した。
論文 参考訳(メタデータ) (2023-09-23T11:22:28Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - MGTBench: Benchmarking Machine-Generated Text Detection [54.81446366272403]
本稿では,強力な大規模言語モデル(LLM)に対するMGT検出のための最初のベンチマークフレームワークを提案する。
一般に単語が多ければ多いほど性能が向上し,ほとんどの検出手法はトレーニングサンプルをはるかに少なくして同様の性能が得られることを示す。
本研究は, テキスト属性タスクにおいて, モデルに基づく検出手法が依然として有効であることを示す。
論文 参考訳(メタデータ) (2023-03-26T21:12:36Z) - CoCo: Coherence-Enhanced Machine-Generated Text Detection Under Data
Limitation With Contrastive Learning [14.637303913878435]
低リソースシナリオ下でMGTを検出するために,コヒーレンスに基づくコントラスト学習モデルCoCoを提案する。
言語的特徴を活用するために,グラフ形式でコヒーレンス情報をテキスト表現にエンコードする。
2つの公開データセットと2つの自己構築データセットの実験結果は、我々のアプローチが最先端の手法を大幅に上回っていることを証明している。
論文 参考訳(メタデータ) (2022-12-20T15:26:19Z) - Exploring Faithful Rationale for Multi-hop Fact Verification via
Salience-Aware Graph Learning [13.72453491358488]
グラフ畳み込みネットワーク(GCN)とサリエンス対応グラフ学習を用いて,マルチホップ事実の検証を行う。
その結果,従来の最先端手法に比べて有理抽出法と事実検証法の両方において有意な利得が得られた。
論文 参考訳(メタデータ) (2022-12-02T09:54:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。