論文の概要: Adversarial Attacks and Defenses for Social Network Text Processing
Applications: Techniques, Challenges and Future Research Directions
- arxiv url: http://arxiv.org/abs/2110.13980v1
- Date: Tue, 26 Oct 2021 19:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 11:11:04.630934
- Title: Adversarial Attacks and Defenses for Social Network Text Processing
Applications: Techniques, Challenges and Future Research Directions
- Title(参考訳): ソーシャルネットワークテキスト処理アプリケーションにおける敵対的攻撃と防御:技術,課題,今後の研究方向
- Authors: Izzat Alsmadi, Kashif Ahmad, Mahmoud Nazzal, Firoj Alam, Ala
Al-Fuqaha, Abdallah Khreishah, and Abdulelah Algosaibi
- Abstract要約: ソーシャルメディアアプリケーションにおける敵攻撃と防衛の主なアプローチを概観する。
本研究は,<i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i</i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i</i>i>i>i</i>
- 参考スコア(独自算出の注目度): 7.84287273674205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing use of social media has led to the development of several Machine
Learning (ML) and Natural Language Processing(NLP) tools to process the
unprecedented amount of social media content to make actionable decisions.
However, these MLand NLP algorithms have been widely shown to be vulnerable to
adversarial attacks. These vulnerabilities allow adversaries to launch a
diversified set of adversarial attacks on these algorithms in different
applications of social media text processing. In this paper, we provide a
comprehensive review of the main approaches for adversarial attacks and
defenses in the context of social media applications with a particular focus on
key challenges and future research directions. In detail, we cover literature
on six key applications, namely (i) rumors detection, (ii) satires detection,
(iii) clickbait & spams identification, (iv) hate speech detection,
(v)misinformation detection, and (vi) sentiment analysis. We then highlight the
concurrent and anticipated future research questions and provide
recommendations and directions for future work.
- Abstract(参考訳): ソーシャルメディアの利用が増加し、いくつかの機械学習(ML)と自然言語処理(NLP)ツールが開発され、ソーシャルメディアコンテンツを前代未聞の量で処理して実行可能な意思決定ができるようになった。
しかし、これらのMLおよびNLPアルゴリズムは敵攻撃に弱いことが広く示されている。
これらの脆弱性により、ソーシャルメディアのテキスト処理のさまざまな応用において、敵のアルゴリズムに対する多様な攻撃を開始することができる。
本稿では,ソーシャルメディアアプリケーションにおける敵の攻撃と防衛に対する主要なアプローチについて,特に重要な課題と今後の研究方向性に焦点をあてた総合的なレビューを行う。
詳しくは、6つの主要な応用、すなわち、文献について述べる。
(i)うわさの検出。
(ii)検出を風刺する。
(iii)クリックベイトとスパムの識別。
(iv)ヘイトスピーチ検出。
(v)誤情報検出、及び
(vi)感情分析。
次に、同時に予想される今後の研究課題を強調し、今後の作業に対する推奨と指示を提供します。
関連論文リスト
- Jailbreaking and Mitigation of Vulnerabilities in Large Language Models [4.564507064383306]
大規模言語モデル(LLM)は、自然言語の理解と生成を前進させることで、人工知能を変革した。
これらの進歩にもかかわらず、LSMは、特に注射と脱獄攻撃を急ぐために、かなりの脆弱性を示してきた。
このレビューでは、これらの脆弱性についての研究状況を分析し、利用可能な防衛戦略を提示する。
論文 参考訳(メタデータ) (2024-10-20T00:00:56Z) - A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Enhanced Online Grooming Detection Employing Context Determination and Message-Level Analysis [2.424910201171407]
オンライングルーミング(オンライングルーミング、OG)は、ソーシャルメディアやメッセージプラットフォーム上での子供の脆弱性を危うくする詐欺的手法を用いて、オンラインで子どもが優先的に直面している一般的な脅威である。
既存のソリューションは、リアルタイムのOG検出に効果的に対応しない児童虐待メディアの署名分析に重点を置いている。
本稿では,OG攻撃が複雑であり,大人と子供のコミュニケーションパターンの特定が必要であることを提案する。
論文 参考訳(メタデータ) (2024-09-12T11:37:34Z) - Modes of Analyzing Disinformation Narratives With AI/ML/Text Mining to Assist in Mitigating the Weaponization of Social Media [0.8287206589886879]
本稿では,ソーシャルメディアにおける悪意あるコミュニケーションを捕捉・監視するための定量的モードの必要性を明らかにする。
ソーシャル・ネットワークを利用したメッセージの「ウェポン化」が意図的に行われており、州が後援し、私的に運営される政治的指向のエンティティも含む。
FacebookやX/Twitterのような主要プラットフォームにモデレーションを導入しようとする試みにもかかわらず、完全にモデレートされていないスペースを提供する代替ソーシャルネットワークが現在確立されている。
論文 参考訳(メタデータ) (2024-05-25T00:02:14Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - How Deep Learning Sees the World: A Survey on Adversarial Attacks &
Defenses [0.0]
本稿では、攻撃能力によってグループ化された最新の敵攻撃と、防御戦略によってクラスタ化された現代の防御をコンパイルする。
また、視覚変換器に関する新たな進歩を提示し、敵対的設定の文脈で使用されるデータセットとメトリクスを要約し、異なる攻撃下での最先端の結果を比較し、オープンな問題の特定で終了する。
論文 参考訳(メタデータ) (2023-05-18T10:33:28Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Stance Detection on Social Media: State of the Art and Trends [5.584060970507506]
ソーシャルメディアにおけるスタンス検出は、感情分析が最適ではないかもしれない様々な社会的・政治的応用のための新たな意見マイニングパラダイムである。
本稿では,これらのコミュニティにおけるスタンス検出の取り組みについて調査し,ソーシャルメディアにおける現在の意見マイニング手法における利用状況について考察する。
ソーシャルメディア上でのスタンス検出手法の徹底的なレビューとして,タスク定義,スタンス検出におけるさまざまなタイプのターゲット,使用する機能,適用されたさまざまな機械学習アプローチについて紹介する。
論文 参考訳(メタデータ) (2020-06-05T19:24:16Z) - Survey of Network Intrusion Detection Methods from the Perspective of
the Knowledge Discovery in Databases Process [63.75363908696257]
本稿では,侵入検知器の開発を目的として,ネットワークデータに適用された手法について概説する。
本稿では,データのキャプチャ,準備,変換,データマイニング,評価などの手法について論じる。
この文献レビューの結果、ネットワークセキュリティ分野のさらなる研究のために考慮すべきいくつかのオープンな問題について検討する。
論文 参考訳(メタデータ) (2020-01-27T11:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。