論文の概要: Automated Detection of Doxing on Twitter
- arxiv url: http://arxiv.org/abs/2202.00879v1
- Date: Wed, 2 Feb 2022 05:04:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 21:49:51.881057
- Title: Automated Detection of Doxing on Twitter
- Title(参考訳): twitter上での doxing の自動検出
- Authors: Younes Karimi, Anna Squicciarini, Shomir Wilson
- Abstract要約: ドキシング(ドキシング)とは、本人の同意なしに個人情報を機密に開示する行為である。
そこで本稿では,Twitter上での機密情報による第三者の開示を自動的に検出する手法を提案し,評価する。
- 参考スコア(独自算出の注目度): 3.463438487417909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Doxing refers to the practice of disclosing sensitive personal information
about a person without their consent. This form of cyberbullying is an
unpleasant and sometimes dangerous phenomenon for online social networks.
Although prior work exists on automated identification of other types of
cyberbullying, a need exists for methods capable of detecting doxing on Twitter
specifically. We propose and evaluate a set of approaches for automatically
detecting second- and third-party disclosures on Twitter of sensitive private
information, a subset of which constitutes doxing. We summarize our findings of
common intentions behind doxing episodes and compare nine different approaches
for automated detection based on string-matching and one-hot encoded
heuristics, as well as word and contextualized string embedding representations
of tweets. We identify an approach providing 96.86% accuracy and 97.37% recall
using contextualized string embeddings and conclude by discussing the
practicality of our proposed methods.
- Abstract(参考訳): ドクシング(doxing)とは、個人の同意なしに機密性の高い個人情報を開示する行為である。
このサイバーいじめは、オンラインソーシャルネットワークにとって不快で時には危険な現象である。
他のタイプのサイバーいじめの自動識別に関する先行研究は存在するが、特にtwitter上でドックスを検出できる方法が必要である。
我々は,機密性の高い個人情報のtwitterにおける第2および第3の開示を自動的に検出する手法を提案し,評価する。
ドキシングエピソードの背後にある共通の意図の知見を要約し、文字列マッチングと1ホットエンコードヒューリスティックに基づく自動検出のための9つの異なるアプローチと、ツイートの単語および文脈化された文字列埋め込み表現の比較を行った。
96.86%の精度と97.37%のリコールをコンテキスト化された文字列埋め込みを用いて実現するアプローチを特定し,提案手法の実用性について論じる。
関連論文リスト
- Illusions of Relevance: Using Content Injection Attacks to Deceive Retrievers, Rerankers, and LLM Judges [52.96987928118327]
検索,リランカー,大型言語モデル(LLM)の埋め込みモデルは,コンテンツインジェクション攻撃に対して脆弱であることがわかった。
主な脅威は,(1) 意味不明な内容や有害な内容の挿入,(2) 関連性を高めるために,問合せ全体あるいはキークエリ用語の挿入,の2つである。
本研究は, 注射内容の配置や関連物質と非関連物質とのバランスなど, 攻撃の成功に影響を与える要因を系統的に検討した。
論文 参考訳(メタデータ) (2025-01-30T18:02:15Z) - Enabling Contextual Soft Moderation on Social Media through Contrastive Textual Deviation [11.577310745082894]
既存のソフトモデレーションパイプラインにスタンス検出を組み込むことを提案する。
提案手法は文脈的偽陽性を20%から2.1%に削減できることを示す。
論文 参考訳(メタデータ) (2024-07-30T15:37:05Z) - RedactBuster: Entity Type Recognition from Redacted Documents [13.172863061928899]
文コンテキストを用いた最初の匿名化モデルであるRedactBusterを提案し、反応テキスト上で名前付きエンティティ認識を行う。
我々はRedactBusterを最も効果的なリアクション技術に対してテストし、公開されているテキスト匿名化ベンチマーク(TAB)を用いて評価する。
その結果,文書の性質やエンティティタイプに関わらず,最大0.985の精度が得られた。
論文 参考訳(メタデータ) (2024-04-19T16:42:44Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - An Adversarial Attack Analysis on Malicious Advertisement URL Detection
Framework [22.259444589459513]
悪意のある広告URLは、サイバー攻撃の源泉であるため、セキュリティ上のリスクをもたらす。
既存の悪意のあるURL検出技術は制限されており、見えない機能やテストデータの一般化を扱うことができる。
本研究では,新しい語彙・ウェブスクラップ機能群を抽出し,機械学習技術を用いて不正広告URL検出システムを構築する。
論文 参考訳(メタデータ) (2022-04-27T20:06:22Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - Cybersecurity Misinformation Detection on Social Media: Case Studies on
Phishing Reports and Zoom's Threats [1.2387676601792899]
ソーシャルメディア上でのサイバーセキュリティとプライバシの脅威に関する誤報を検出するための新しいアプローチを提案する。
我々はTwitter上で不正確なフィッシングのクレームを検出するためのフレームワークを開発した。
また、Zoomのセキュリティやプライバシの脅威に関連する誤情報を検出するための別のフレームワークも提案した。
論文 参考訳(メタデータ) (2021-10-23T20:45:24Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - A Few Topical Tweets are Enough for Effective User-Level Stance
Detection [8.118808561953514]
我々は2つのアプローチを用いて声帯Twitterユーザーのスタンス検出に取り組む。
第1のアプローチでは、コンテキスト化埋め込みを用いてツイートを表現することで、ユーザレベルのスタンス検出を改善する。
第2のアプローチでは、あるユーザのつぶやきをTwitterのタイムラインのつぶやきを使って拡張し、ユーザを教師なしで分類する。
論文 参考訳(メタデータ) (2020-04-07T15:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。