論文の概要: On the critical path to implant backdoors and the effectiveness of potential mitigation techniques: Early learnings from XZ
- arxiv url: http://arxiv.org/abs/2404.08987v1
- Date: Sat, 13 Apr 2024 12:18:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 17:43:54.785106
- Title: On the critical path to implant backdoors and the effectiveness of potential mitigation techniques: Early learnings from XZ
- Title(参考訳): インプラントバックドアのクリティカルパスと潜在的な緩和技術の有効性:XZからの早期学習
- Authors: Mario Lins, René Mayrhofer, Michael Roland, Daniel Hofer, Martin Schwaighofer,
- Abstract要約: XZ Utilsのバックドアによる新たなサプライチェーン攻撃が特定されている。
バックドアにより、攻撃者は事前認証なしでSSHを使用する脆弱なサーバ上でリモートでコマンドを実行することができる。
- 参考スコア(独自算出の注目度): 0.7608765913950183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An emerging supply-chain attack due to a backdoor in XZ Utils has been identified. The backdoor allows an attacker to run commands remotely on vulnerable servers utilizing SSH without prior authentication. We have started to collect available information with regards to this attack to discuss current mitigation strategies for such kinds of supply-chain attacks. This paper introduces the critical attack path of the XZ backdoor and provides an overview about potential mitigation techniques related to relevant stages of the attack path.
- Abstract(参考訳): XZ Utilsのバックドアによる新たなサプライチェーン攻撃が特定されている。
バックドアにより、攻撃者は事前認証なしでSSHを使用する脆弱なサーバ上でリモートでコマンドを実行することができる。
我々は、このようなサプライチェーン攻撃に対する現在の緩和戦略について議論するため、この攻撃に関して利用可能な情報を集め始めている。
本稿では,XZバックドアのクリティカルアタックパスについて紹介し,攻撃経路の関連段階に関連する潜在的な緩和技術の概要について述べる。
関連論文リスト
- Revisiting Backdoor Attacks against Large Vision-Language Models [76.42014292255944]
本稿では,LVLMの命令チューニングにおけるバックドア攻撃の一般化可能性について実験的に検討する。
以上に基づいて,既存のバックドア攻撃を修正した。
本稿では,従来のシンプルなバックドア戦略でさえ,LVLMに深刻な脅威をもたらすことを指摘する。
論文 参考訳(メタデータ) (2024-06-27T02:31:03Z) - TrojFM: Resource-efficient Backdoor Attacks against Very Large Foundation Models [69.37990698561299]
TrojFMは、非常に大きな基礎モデルに適した、新しいバックドア攻撃である。
提案手法では,モデルパラメータのごく一部のみを微調整することでバックドアを注入する。
広範に使われている大規模GPTモデルに対して,TrojFMが効果的なバックドアアタックを起動できることを実証する。
論文 参考訳(メタデータ) (2024-05-27T03:10:57Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Efficient Backdoor Attacks for Deep Neural Networks in Real-world Scenarios [17.928013313779516]
最近のディープニューラルネットワーク(DNN)は、膨大なトレーニングデータに依存している。
本稿では,被害者が複数の情報源からデータを収集する,より現実的な攻撃シナリオを提案する。
クリーンな特徴抑圧とPhoisoning Feature Augmentationの2つの異なるストリームからCLIPベースの3つの技術を紹介した。
論文 参考訳(メタデータ) (2023-06-14T09:21:48Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - BAAAN: Backdoor Attacks Against Autoencoder and GAN-Based Machine
Learning Models [21.06679566096713]
我々は、マシンラーニングモデル、すなわちバックドア攻撃に対する最も深刻な攻撃の1つを、オートエンコーダとGANの両方に対して探索する。
バックドアアタック(英語: backdoor attack)とは、敵が秘密のトリガーによってのみ起動できるターゲットモデルに隠れたバックドアを実装する訓練時間アタックである。
バックドア攻撃の適用性をオートエンコーダやGANベースのモデルに拡張する。
論文 参考訳(メタデータ) (2020-10-06T20:26:16Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。