論文の概要: Compromised account detection using authorship verification: a novel
approach
- arxiv url: http://arxiv.org/abs/2206.03581v2
- Date: Thu, 9 Jun 2022 07:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 20:50:10.272152
- Title: Compromised account detection using authorship verification: a novel
approach
- Title(参考訳): 著者認証を用いた妥協アカウント検出--新しいアプローチ
- Authors: Forough Farazmanesh, Fateme Foroutan, Amir Jalaly Bidgoly
- Abstract要約: 正当なアカウントの妥協は、オンラインソーシャルネットワーク(OSNs)において悪意のあるコンテンツを大きなユーザーベースに広める方法である
本稿では,著者確認に基づく新しいアプローチを提案し,漏洩したTwitterアカウントを識別する。
- 参考スコア(独自算出の注目度): 1.0312968200748118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compromising legitimate accounts is a way of disseminating malicious content
to a large user base in Online Social Networks (OSNs). Since the accounts cause
lots of damages to the user and consequently to other users on OSNs, early
detection is very important. This paper proposes a novel approach based on
authorship verification to identify compromised twitter accounts. As the
approach only uses the features extracted from the last user's post, it helps
to early detection to control the damage. As a result, the malicious message
without a user profile can be detected with satisfying accuracy. Experiments
were constructed using a real-world dataset of compromised accounts on Twitter.
The result showed that the model is suitable for detection due to achieving an
accuracy of 89%.
- Abstract(参考訳): 正当なアカウントの妥協は、悪意のあるコンテンツをオンラインソーシャルネットワーク(OSN)の大規模なユーザーベースに広める方法である。
アカウントはユーザーに大きなダメージを与え、OSN上の他のユーザーにもダメージを与えるため、早期発見は非常に重要である。
本稿では,著者確認に基づく新しいアプローチを提案し,漏洩したTwitterアカウントを識別する。
このアプローチは、最後のユーザーの投稿から抽出された機能のみを使用するため、損傷を制御するために早期検出に役立ちます。
これにより、ユーザプロファイルのない悪意のあるメッセージを精度良く検出することができる。
実験はTwitter上の漏洩アカウントの実際のデータセットを使って行われた。
その結果,89%の精度で検出に適したモデルであることが判明した。
関連論文リスト
- Securing Voice Authentication Applications Against Targeted Data Poisoning [4.856070170902535]
現実的な攻撃シナリオを考慮した実世界のデータセットを用いた拡張フレームワークを提案する。
その結果,提案手法はロバストであり,データセットのごく一部に毒を盛った場合でも正確な認証が可能であることがわかった。
論文 参考訳(メタデータ) (2024-06-25T04:52:37Z) - SeGA: Preference-Aware Self-Contrastive Learning with Prompts for
Anomalous User Detection on Twitter [14.483830120541894]
本稿では,ユーザの異常検出のための自己コントラスト学習であるSeGAを提案する。
SeGAは、投稿を通じてユーザの好みを要約するために、大きな言語モデルを使用する。
モデル設計と事前学習戦略の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-17T05:35:28Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - Online Corrupted User Detection and Regret Minimization [49.536254494829436]
現実世界のオンラインウェブシステムでは、複数のユーザがシステムに順次到着する。
乱れた行動から未知のユーザ関係を学習・活用するために,LOCUDという重要なオンライン学習問題を提案する。
我々はRCLUB-WCUの推測ユーザ関係に基づく新しいオンライン検出アルゴリズムOCCUDを考案した。
論文 参考訳(メタデータ) (2023-10-07T10:20:26Z) - Detecting fake accounts through Generative Adversarial Network in online
social media [0.0]
本稿では,ユーザ類似度尺度とGANアルゴリズムを用いて,Twitterデータセット内の偽ユーザアカウントを識別する手法を提案する。
問題の複雑さにもかかわらず、この方法は偽アカウントの分類と検出において80%のAUCレートを達成する。
論文 参考訳(メタデータ) (2022-10-25T10:20:27Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Voting for the right answer: Adversarial defense for speaker
verification [79.10523688806852]
ASVは敵の攻撃のレーダー下にあり、これは人間の知覚による本来の攻撃と似ている。
盲点領域におけるASVのリスクの高い決定を防止するため、「正しい回答を求める」という考え方を提案する。
実験結果から,本手法は両攻撃者に対するロバスト性を向上することが示された。
論文 参考訳(メタデータ) (2021-06-15T04:05:28Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Friend or Faux: Graph-Based Early Detection of Fake Accounts on Social
Networks [4.923937591056569]
我々は,新しいユーザが偽アカウントであるかどうかを,(I)友達リクエストターゲットの選択と(II)これらのターゲットの応答を集約することで決定するSybilEdgeアルゴリズムを提案する。
我々は、SybilEdgeがFacebookネットワーク上で新しいフェイクユーザーを素早く検出し、最先端のアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2020-04-09T22:03:28Z) - A Few Topical Tweets are Enough for Effective User-Level Stance
Detection [8.118808561953514]
我々は2つのアプローチを用いて声帯Twitterユーザーのスタンス検出に取り組む。
第1のアプローチでは、コンテキスト化埋め込みを用いてツイートを表現することで、ユーザレベルのスタンス検出を改善する。
第2のアプローチでは、あるユーザのつぶやきをTwitterのタイムラインのつぶやきを使って拡張し、ユーザを教師なしで分類する。
論文 参考訳(メタデータ) (2020-04-07T15:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。