論文の概要: Weak Links in LinkedIn: Enhancing Fake Profile Detection in the Age of LLMs
- arxiv url: http://arxiv.org/abs/2507.16860v1
- Date: Mon, 21 Jul 2025 17:23:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.695151
- Title: Weak Links in LinkedIn: Enhancing Fake Profile Detection in the Age of LLMs
- Title(参考訳): LinkedInの弱リンク: LLM時代におけるフェイクプロファイル検出の強化
- Authors: Apoorva Gulati, Rajesh Kumar, Vinti Agarwal, Aditya Sharma,
- Abstract要約: 大きな言語モデル(LLM)により、LinkedInのようなプラットフォーム上で、現実的な偽のプロファイルを簡単に作成できるようになった。
これはテキストベースの偽プロファイル検出器に重大なリスクをもたらす。
本研究では,LLM生成プロファイルに対する既存検出器のロバスト性を評価する。
- 参考スコア(独自算出の注目度): 3.250177259081117
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have made it easier to create realistic fake profiles on platforms like LinkedIn. This poses a significant risk for text-based fake profile detectors. In this study, we evaluate the robustness of existing detectors against LLM-generated profiles. While highly effective in detecting manually created fake profiles (False Accept Rate: 6-7%), the existing detectors fail to identify GPT-generated profiles (False Accept Rate: 42-52%). We propose GPT-assisted adversarial training as a countermeasure, restoring the False Accept Rate to between 1-7% without impacting the False Reject Rates (0.5-2%). Ablation studies revealed that detectors trained on combined numerical and textual embeddings exhibit the highest robustness, followed by those using numerical-only embeddings, and lastly those using textual-only embeddings. Complementary analysis on the ability of prompt-based GPT-4Turbo and human evaluators affirms the need for robust automated detectors such as the one proposed in this study.
- Abstract(参考訳): 大きな言語モデル(LLM)により、LinkedInのようなプラットフォーム上で、現実的な偽のプロファイルを簡単に作成できるようになった。
これはテキストベースの偽プロファイル検出器に重大なリスクをもたらす。
本研究では,LLM生成プロファイルに対する既存検出器のロバスト性を評価する。
手動で作成した偽のプロファイル(偽の受容率: 6-7%)を検出するのに非常に効果的であるが、既存の検出器はGPT生成プロファイル(偽の受容率: 42-52%)を識別できない。
本研究は,False Reject Rates (0.5-2%)に影響を与えることなく,False Accept Rateを1~7%まで回復させるGPT支援対人トレーニングを提案する。
アブレーション研究では、数値とテキストの埋め込みを併用して訓練した検出器が最も頑丈であることが判明し、次いで数値のみの埋め込みを用いた検出器と、テキストのみの埋め込みを用いた検出器が続いた。
プロンプトベースGPT-4Turboとヒト評価器の能力に関する補完的な分析は、本研究で提案されているような堅牢な自動検出器の必要性を裏付けるものである。
関連論文リスト
- Your Language Model Can Secretly Write Like Humans: Contrastive Paraphrase Attacks on LLM-Generated Text Detectors [65.27124213266491]
テキスト検出を効果的に欺く訓練不要な方法である textbfContrastive textbfParaphrase textbfAttack (CoPA) を提案する。
CoPAは、大規模言語モデルによって生成される人間のような分布とは対照的に、補助的な機械的な単語分布を構築している。
我々の理論的分析は、提案された攻撃の優越性を示唆している。
論文 参考訳(メタデータ) (2025-05-21T10:08:39Z) - ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability [62.285407189502216]
LLM(Large Language Models)によって生成されたテキストの検出は、誤った判断によって致命的な誤りを引き起こす可能性がある。
本稿では,人間の意思決定プロセスに根ざした解釈可能な検出手法であるExaGPTを紹介する。
以上の結果から,ExaGPTは従来の強力な検出器よりも最大で40.9ポイントの精度を1%の偽陽性率で大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T01:15:07Z) - A Practical Examination of AI-Generated Text Detectors for Large Language Models [25.919278893876193]
機械生成コンテンツ検出器は、様々な条件や言語モデルからそのようなテキストを識別する。
本稿では、これらの主張を、これらの検出器がこれまで遭遇していなかった領域、データセット、モデルにおいて、いくつかの一般的な検出器を評価することによって、批判的に評価する。
論文 参考訳(メタデータ) (2024-12-06T15:56:11Z) - Who Wrote This? The Key to Zero-Shot LLM-Generated Text Detection Is GECScore [51.65730053591696]
我々は,人文テキストがLLM生成テキストよりも文法的誤りを多く含んでいるという観察に基づく,シンプルで効果的なブラックボックスゼロショット検出手法を提案する。
実験結果から,本手法はゼロショット法や教師あり手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-07T12:57:01Z) - Enhancing Robustness of LLM-Synthetic Text Detectors for Academic
Writing: A Comprehensive Analysis [35.351782110161025]
大規模言語モデル(LLM)は、仕事と研究の方法に革命をもたらす多くの利点を提供する。
彼らはまた、潜在的なネガティブな結果のために、かなりの注意を払っている。
1つの例は、人的貢献の少ない学術報告書や論文を作成することである。
論文 参考訳(メタデータ) (2024-01-16T01:58:36Z) - The Looming Threat of Fake and LLM-generated LinkedIn Profiles:
Challenges and Opportunities for Detection and Prevention [0.8808993671472349]
本稿では,LinkedIn Online Social Networkにおいて,偽および大規模言語モデル(LLM)生成プロファイルを検出する新しい手法を提案する。
提案手法は,すべての単語の埋め込みにおいて,正当性と偽のプロファイルを約95%の精度で識別できることを示す。
論文 参考訳(メタデータ) (2023-07-21T19:09:24Z) - OUTFOX: LLM-Generated Essay Detection Through In-Context Learning with
Adversarially Generated Examples [44.118047780553006]
OUTFOXは、LLM生成テキスト検出器の堅牢性を改善するフレームワークであり、検出器と攻撃者の両方が互いの出力を考慮できるようにする。
実験の結果,提案した検出器は攻撃者が生成したテキストの検出性能を最大41.3点F1スコアまで向上させることがわかった。
この検出器は最先端の検知性能を示し、96.9ポイントのF1スコアまで到達し、既存の検出器を非攻撃テキストで打ち負かした。
論文 参考訳(メタデータ) (2023-07-21T17:40:47Z) - RADAR: Robust AI-Text Detection via Adversarial Learning [69.5883095262619]
RADARはパラフラザーと検出器の対向訓練に基づいている。
パラフレーズの目標は、AIテキスト検出を避けるために現実的なコンテンツを生成することである。
RADARは検出器からのフィードバックを使ってパラフラザーを更新する。
論文 参考訳(メタデータ) (2023-07-07T21:13:27Z) - DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability
Curvature [143.5381108333212]
大規模な言語モデルからサンプリングされたテキストは、モデルのログ確率関数の負の曲率領域を占有する傾向にあることを示す。
次に、与えられたLLMから通路が生成されるかどうかを判断するための新しい曲率ベースの基準を定義する。
我々は、モデルサンプル検出のための既存のゼロショット法よりもディテクターGPTの方が識別性が高いことを発見した。
論文 参考訳(メタデータ) (2023-01-26T18:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。