論文の概要: Catch Me If You Can: Deceiving Stance Detection and Geotagging Models to
Protect Privacy of Individuals on Twitter
- arxiv url: http://arxiv.org/abs/2207.11500v1
- Date: Sat, 23 Jul 2022 11:55:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:06:20.083386
- Title: Catch Me If You Can: Deceiving Stance Detection and Geotagging Models to
Protect Privacy of Individuals on Twitter
- Title(参考訳): twitter上の個人のプライバシーを守るために、スタンス検出とジオタグモデルを騙すことができる。
- Authors: Dilara Dogan, Bahadir Altun, Muhammed Said Zengin, Mucahid Kutlu and
Tamer Elsayed
- Abstract要約: 調査は2つの露光リスキーなタスク、姿勢検出とジオタグ付けに基礎を置いている。
そこで本研究では,テキスト修正のための多種多様なテクニックを探求する。例えば,テキストに接頭辞を挿入したり,言い換えたり,ダミーなソーシャルメディア投稿を追加したりすることなどである。
タイプミスは、ソーシャルネットワークに依存しているため、最先端のジオタグモデルに最小限の影響があることがわかった。
- 参考スコア(独自算出の注目度): 3.928604516640069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent advances in natural language processing have yielded many exciting
developments in text analysis and language understanding models; however, these
models can also be used to track people, bringing severe privacy concerns. In
this work, we investigate what individuals can do to avoid being detected by
those models while using social media platforms. We ground our investigation in
two exposure-risky tasks, stance detection and geotagging. We explore a variety
of simple techniques for modifying text, such as inserting typos in salient
words, paraphrasing, and adding dummy social media posts. Our experiments show
that the performance of BERT-based models fined tuned for stance detection
decreases significantly due to typos, but it is not affected by paraphrasing.
Moreover, we find that typos have minimal impact on state-of-the-art geotagging
models due to their increased reliance on social networks; however, we show
that users can deceive those models by interacting with different users,
reducing their performance by almost 50%.
- Abstract(参考訳): 自然言語処理の最近の進歩は、テキスト分析と言語理解モデルに多くのエキサイティングな発展をもたらしたが、これらのモデルは人々の追跡にも利用でき、プライバシーの懸念が深刻化している。
本研究では,ソーシャルメディアプラットフォームを用いて,モデルによって検出されるのを避けるために,個人に何ができるかを検討する。
我々は,姿勢検出とジオタギングの2つの課題について調査を行った。
テキストの修正には,敬語へのタイプミスの挿入,パラフラージング,ダミーなソーシャルメディア投稿の追加など,さまざまな簡単なテクニックを探求する。
本実験により, 姿勢検出のために調整したBERTモデルの性能はタイポスにより著しく低下するが, パラフレーズ化の影響を受けないことがわかった。
さらに,タイプミスは,ソーシャルネットワークへの依存度が高まることにより,最先端のジオタグモデルに最小限の影響が認められるが,ユーザが異なるユーザと対話することで,それらのモデルを騙すことができ,性能を約50%削減できることを示す。
関連論文リスト
- IDT: Dual-Task Adversarial Attacks for Privacy Protection [8.312362092693377]
プライバシを保護するには、センシティブな属性を検出できないモデル内の表現を使用する必要がある。
補助的および解釈可能なモデルによる予測を分析し,どのトークンが変更に重要かを識別する手法であるIDTを提案する。
我々は、異なるタスクに適したNLPのための異なるデータセットを評価する。
論文 参考訳(メタデータ) (2024-06-28T04:14:35Z) - Your Large Language Models Are Leaving Fingerprints [1.9561775591923982]
LLMには、特定の語彙的特徴と形態的特徴の頻度のわずかな違いを示すユニークな指紋がある。
このような指紋を視覚化し、機械が生成したテキストをどうやって検出できるかを説明し、テキストドメイン全体でさらに堅牢であることを示す。
論文 参考訳(メタデータ) (2024-05-22T23:02:42Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Few-Shot Detection of Machine-Generated Text using Style Representations [4.326503887981912]
人間の文章を巧みに模倣する言語モデルは、虐待のかなりのリスクを負う。
そこで本研究では,人間が作成したテキストから推定した書体スタイルの表現を活用することを提案する。
また,人間と機械作家の区別にも有効であることがわかった。
論文 参考訳(メタデータ) (2024-01-12T17:26:51Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - How would Stance Detection Techniques Evolve after the Launch of ChatGPT? [5.756359016880821]
2022年11月30日、新しい訓練済み言語モデルであるchatGPTが発売された。
ChatGPTは、SemEval-2016やP-Stanceといった一般的なデータセットに対して、SOTAまたは同様のパフォーマンスを達成することができる。
ChatGPTは、NLPのスタンス検出タスクにおいて、最高のAIモデルになる可能性がある。
論文 参考訳(メタデータ) (2022-12-30T05:03:15Z) - CoCo: Coherence-Enhanced Machine-Generated Text Detection Under Data
Limitation With Contrastive Learning [14.637303913878435]
低リソースシナリオ下でMGTを検出するために,コヒーレンスに基づくコントラスト学習モデルCoCoを提案する。
言語的特徴を活用するために,グラフ形式でコヒーレンス情報をテキスト表現にエンコードする。
2つの公開データセットと2つの自己構築データセットの実験結果は、我々のアプローチが最先端の手法を大幅に上回っていることを証明している。
論文 参考訳(メタデータ) (2022-12-20T15:26:19Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Exploiting Multi-Object Relationships for Detecting Adversarial Attacks
in Complex Scenes [51.65308857232767]
ディープニューラルネットワーク(DNN)をデプロイするビジョンシステムは、敵の例に弱いことが知られている。
近年の研究では、入力データの固有成分のチェックは、敵攻撃を検出するための有望な方法であることが示された。
言語モデルを用いてコンテキスト整合性チェックを行う新しい手法を開発した。
論文 参考訳(メタデータ) (2021-08-19T00:52:10Z) - Adversarial Attack on Community Detection by Hiding Individuals [68.76889102470203]
我々はブラックボックス攻撃に焦点をあて、ディープグラフコミュニティ検出モデルの検出からターゲット個人を隠すことを目的としている。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-22T09:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。