論文の概要: The Panacea Threat Intelligence and Active Defense Platform
- arxiv url: http://arxiv.org/abs/2004.09662v1
- Date: Mon, 20 Apr 2020 22:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 19:05:32.872472
- Title: The Panacea Threat Intelligence and Active Defense Platform
- Title(参考訳): パナセアの脅威情報とアクティブディフェンスプラットフォーム
- Authors: Adam Dalton, Ehsan Aghaei, Ehab Al-Shaer, Archna Bhatia, Esteban
Castillo, Zhuo Cheng, Sreekar Dhaduvai, Qi Duan, Md Mazharul Islam, Younes
Karimi, Amir Masoumzadeh, Brodie Mather, Sashank Santhanam, Samira Shaikh,
Tomek Strzalkowski, Bonnie J. Dorr
- Abstract要約: パナセア(Panacea)は、自然言語処理(NLP)コンポーネントをサポートし、社会工学的攻撃に対する積極的な防御を行うシステムである。
Panaceaは、メッセージ分析、知識表現、対話生成のための革新的なアプローチに対応するために、プラグインアーキテクチャを通じて最新のメッセージフォーマットを処理する。
パナセアシステムの新規性は、NLPをサイバー防衛に使用し、攻撃者がボットを使用して攻撃者に帰属する証拠を抽出し、攻撃者の時間と資源を浪費することである。
- 参考スコア(独自算出の注目度): 11.957592780464537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe Panacea, a system that supports natural language processing (NLP)
components for active defenses against social engineering attacks. We deploy a
pipeline of human language technology, including Ask and Framing Detection,
Named Entity Recognition, Dialogue Engineering, and Stylometry. Panacea
processes modern message formats through a plug-in architecture to accommodate
innovative approaches for message analysis, knowledge representation and
dialogue generation. The novelty of the Panacea system is that uses NLP for
cyber defense and engages the attacker using bots to elicit evidence to
attribute to the attacker and to waste the attacker's time and resources.
- Abstract(参考訳): パナセア(Panacea)は、自然言語処理(NLP)コンポーネントをサポートし、社会工学的攻撃に対する積極的な防御を行うシステムである。
AskやFraming Detection, Named Entity Recognition, Dialogue Engineering, Stylometryなど,人間の言語技術のパイプラインをデプロイしています。
panaceaは現代的なメッセージフォーマットをプラグインアーキテクチャを通じて処理し、メッセージ分析、知識表現、対話生成といった革新的なアプローチに対応する。
パナセアシステムの新規性は、NLPをサイバー防衛に使用し、攻撃者がボットを使用して攻撃者に帰属する証拠を抽出し、攻撃者の時間と資源を浪費することである。
関連論文リスト
- Jailbreaking and Mitigation of Vulnerabilities in Large Language Models [4.564507064383306]
大規模言語モデル(LLM)は、自然言語の理解と生成を前進させることで、人工知能を変革した。
これらの進歩にもかかわらず、LSMは、特に注射と脱獄攻撃を急ぐために、かなりの脆弱性を示してきた。
このレビューでは、これらの脆弱性についての研究状況を分析し、利用可能な防衛戦略を提示する。
論文 参考訳(メタデータ) (2024-10-20T00:00:56Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Signed-Prompt: A New Approach to Prevent Prompt Injection Attacks
Against LLM-Integrated Applications [0.0]
本稿では,早期のインジェクション攻撃に対する新しい解決策として,Signed-Prompt法を提案する。
この研究には、権限のあるユーザによるコマンドセグメント内の機密命令の署名が含まれており、LLMは信頼できる命令ソースを識別することができる。
実験はSigned-Prompt法の有効性を示し、様々な種類のプロンプトインジェクション攻撃に対してかなりの抵抗を示した。
論文 参考訳(メタデータ) (2024-01-15T11:44:18Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - CTI4AI: Threat Intelligence Generation and Sharing after Red Teaming AI
Models [0.0]
システムの脆弱性、潜在的な脅威、システムの堅牢性を高める特性を識別する必要がある。
二次的なニーズは、このAIセキュリティ脅威インテリジェンスを、モデル開発者、ユーザ、AI/MLセキュリティ専門家など、さまざまな利害関係者間で共有することである。
本稿では,AI/ML固有の脆弱性と脅威知能を体系的に識別し,共有する必要性を克服するために,プロトタイプシステムCTI4AIを作成し,記述する。
論文 参考訳(メタデータ) (2022-08-16T00:16:58Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Robust Conversational Agents against Imperceptible Toxicity Triggers [29.71051151620196]
我々は,会話エージェントに対する攻撃について,一貫性,関連性,流布性の観点から認識し難いものを提案する。
次に,攻撃を緩和するだけでなく,会話の流れの維持を図るような攻撃に対する防御機構を提案する。
論文 参考訳(メタデータ) (2022-05-05T01:48:39Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。