論文の概要: The Looming Threat of Fake and LLM-generated LinkedIn Profiles:
Challenges and Opportunities for Detection and Prevention
- arxiv url: http://arxiv.org/abs/2307.11864v1
- Date: Fri, 21 Jul 2023 19:09:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 19:18:28.216321
- Title: The Looming Threat of Fake and LLM-generated LinkedIn Profiles:
Challenges and Opportunities for Detection and Prevention
- Title(参考訳): フェイクおよびllm生成のlinkedinプロファイルの脅威: 検出と防止のための挑戦と機会
- Authors: Navid Ayoobi, Sadat Shahriar, Arjun Mukherjee
- Abstract要約: 本稿では,LinkedIn Online Social Networkにおいて,偽および大規模言語モデル(LLM)生成プロファイルを検出する新しい手法を提案する。
提案手法は,すべての単語の埋め込みにおいて,正当性と偽のプロファイルを約95%の精度で識別できることを示す。
- 参考スコア(独自算出の注目度): 0.8808993671472349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel method for detecting fake and Large
Language Model (LLM)-generated profiles in the LinkedIn Online Social Network
immediately upon registration and before establishing connections. Early fake
profile identification is crucial to maintaining the platform's integrity since
it prevents imposters from acquiring the private and sensitive information of
legitimate users and from gaining an opportunity to increase their credibility
for future phishing and scamming activities. This work uses textual information
provided in LinkedIn profiles and introduces the Section and Subsection Tag
Embedding (SSTE) method to enhance the discriminative characteristics of these
data for distinguishing between legitimate profiles and those created by
imposters manually or by using an LLM. Additionally, the dearth of a large
publicly available LinkedIn dataset motivated us to collect 3600 LinkedIn
profiles for our research. We will release our dataset publicly for research
purposes. This is, to the best of our knowledge, the first large publicly
available LinkedIn dataset for fake LinkedIn account detection. Within our
paradigm, we assess static and contextualized word embeddings, including GloVe,
Flair, BERT, and RoBERTa. We show that the suggested method can distinguish
between legitimate and fake profiles with an accuracy of about 95% across all
word embeddings. In addition, we show that SSTE has a promising accuracy for
identifying LLM-generated profiles, despite the fact that no LLM-generated
profiles were employed during the training phase, and can achieve an accuracy
of approximately 90% when only 20 LLM-generated profiles are added to the
training set. It is a significant finding since the proliferation of several
LLMs in the near future makes it extremely challenging to design a single
system that can identify profiles created with various LLMs.
- Abstract(参考訳): 本稿では,LinkedIn Online Social Networkにおいて,登録直後および接続確立直前に偽・大規模言語モデル(LLM)生成プロファイルを検出する新しい手法を提案する。
初期のフェイクプロファイルの識別は、正当なユーザーのプライベートで機密性の高い情報を取得し、将来のフィッシングや詐欺行為に対する信頼性を高める機会を得ることを禁止しているため、プラットフォームの完全性を維持するために重要である。
この作業では、LinkedInプロファイルに提供されるテキスト情報を使用し、セクションおよびサブセクションタグ埋め込み(SSTE)メソッドを導入し、これらのデータの識別特性を高めて、正規プロファイルとインポスタが手動で作成したプロファイル、あるいはLLMを使用して区別する。
さらに、大規模な公開可能なLinkedInデータセットの発掘により、研究のために3600のLinkedInプロファイルを収集しました。
研究目的のためにデータセットを公開します。
これは私たちの知る限りでは、偽のLinkedInアカウント検出のための最初の大規模な公開LinkedInデータセットです。
本パラダイムでは,GloVe, Flair, BERT, RoBERTaなどの静的および文脈的単語埋め込みを評価する。
提案手法は,すべての単語埋め込みにおいて正統なプロファイルと偽のプロファイルを95%の精度で識別できることを示す。
さらに, SSTEは, LLM生成プロファイルをトレーニング期間中に使用しなかったにもかかわらず, LLM生成プロファイルの同定に有望な精度を示し, 20個のLLM生成プロファイルをトレーニングセットに追加した場合, 約90%の精度が得られることを示した。
近い将来に複数のLSMが増殖すると、様々なLSMで生成されたプロファイルを識別できる単一のシステムの設計が極めて困難になるため、重要な発見である。
関連論文リスト
- Alpaca against Vicuna: Using LLMs to Uncover Memorization of LLMs [63.67157940979682]
本稿では,攻撃者によるLSMエージェントを用いたブラックボックスプロンプト最適化手法を提案する。
ベースラインプレフィックス・サフィックス測定と比較すると,命令ベースのプロンプトは,トレーニングデータと23.7%のオーバラップで出力を生成する。
以上の結果から,命令調整モデルでは,ベースモデルと同等に事前学習データを公開することが可能であり,他のLSMが提案する命令を用いることで,新たな自動攻撃の道を開くことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T19:32:01Z) - Large Language Models for Data Annotation: A Survey [58.454724454158814]
LLM(Advanced Large Language Models)の出現は、データアノテーションのプロセスに革命を起こし、自動化する前例のない機会を提供する。
この調査は、LLMベースのデータ、LLM生成アノテーションの評価、LLM生成アノテーションによる学習の3つの中核的な側面に貢献する。
重要なガイドとして、この調査は、研究者や実践者がデータアノテーションのための最新のLCMの可能性を探究することを目的としている。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - TRAP: Targeted Random Adversarial Prompt Honeypot for Black-Box
Identification [44.26441565763495]
BBIV(Black-box Identity Verification)の新たな問題点について述べる。
目標は、サードパーティアプリケーションがチャット機能を通じて特定のLLMを使用するかどうかを判断することである。
本稿では,TRAP (Targeted Random Adversarial Prompt) と呼ばれる,特定のLPMを識別する手法を提案する。
論文 参考訳(メタデータ) (2024-02-20T13:20:39Z) - Do Membership Inference Attacks Work on Large Language Models? [145.90022632726883]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットモデルのトレーニングデータのメンバーであるかどうかを予測しようとする。
我々は、Pileで訓練された言語モデルに対して、MIAの大規模評価を行い、そのパラメータは160Mから12Bまでである。
様々な LLM サイズや領域にまたがるほとんどの設定において,MIA はランダムな推測よりもほとんど優れていないことがわかった。
論文 参考訳(メタデータ) (2024-02-12T17:52:05Z) - On mission Twitter Profiles: A Study of Selective Toxic Behavior [5.0157204307764625]
本研究は「オンミッションプロファイル」と呼ばれる影響操作に使用される可能性のあるプロファイルを特徴付けることを目的とする。
128万件のTwitterやX、プロフィール、293万件のツイートの時系列データは、テーマの多様性に基づいたプロファイリングを可能にする。
論文 参考訳(メタデータ) (2024-01-25T15:42:36Z) - TOFU: A Task of Fictitious Unlearning for LLMs [99.92305790945507]
Webからの大量のコーパスに基づいてトレーニングされた大規模な言語モデルは、法的および倫理的懸念を提起する機密データやプライベートデータを再現することができる。
トレーニングデータに存在する情報を忘れるためにモデルをチューニングするアンラーニングは、トレーニング後のプライベートデータを保護する手段を提供する。
未学習の理解を深めるためのベンチマークであるTOFUを紹介する。
論文 参考訳(メタデータ) (2024-01-11T18:57:12Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language
Models [56.84735912476625]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Automatic Hallucination Assessment for Aligned Large Language Models via
Transferable Adversarial Attacks [98.22864957942821]
本稿では,大規模言語モデルが忠実に振る舞う既存データを適切に修正し,評価データを自動的に生成する手法を開発することを目的とする。
具体的には,LLM ベースのフレームワークである Auto Debug について述べる。
実験結果から, LLMは, インプロンプトに与えられた知識とパラメトリック知識との間に矛盾がある場合, 質問応答シナリオの2つのカテゴリに幻覚を与える可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Beyond Memorization: Violating Privacy Via Inference with Large Language
Models [13.900633576526863]
本稿では,テキストから個人属性を推測する事前学習言語モデルの能力に関する,最初の総合的研究について述べる。
以上の結果から,現在のLCMでは,従来は達成不可能な規模で個人データを推測することが可能であることが示唆された。
論文 参考訳(メタデータ) (2023-10-11T08:32:46Z) - Profiler: Profile-Based Model to Detect Phishing Emails [15.109679047753355]
本稿では,攻撃者がメールに適応して検出を回避できる可能性を低減するために,メールの多次元リスク評価を提案する。
本研究では,(1)脅威レベル,(2)認知的操作,(3)電子メールタイプを分析する3つのモデルを含むリスクアセスメントフレームワークを開発する。
プロファイラは、MLアプローチと併用して、誤分類を減らしたり、トレーニング段階で大規模な電子メールデータセットのラベル付けとして使用することができる。
論文 参考訳(メタデータ) (2022-08-18T10:01:55Z) - Identifying Fake Profiles in LinkedIn [0.22843885788439797]
LinkedInのフェイクプロフィールを特定するのに必要なプロファイルデータの最小セットを特定します。
偽プロファイル識別のための適切なデータマイニング手法を提案する。
提案手法では,87%の精度と94%のTrue Negative Rateで偽のプロフィールを識別できる。
論文 参考訳(メタデータ) (2020-06-02T04:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。