論文の概要: Attack on Scene Flow using Point Clouds
- arxiv url: http://arxiv.org/abs/2404.13621v5
- Date: Tue, 27 Aug 2024 01:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 19:19:38.446278
- Title: Attack on Scene Flow using Point Clouds
- Title(参考訳): 点雲を用いたシーンフローの攻撃
- Authors: Haniyeh Ehsani Oskouie, Mohammad-Shahram Moin, Shohreh Kasaei,
- Abstract要約: 本稿では,シーンフローネットワークに特化して,敵のホワイトボックス攻撃を導入する。
実験結果から, 生成した逆数例は平均点誤差において最大33.7の相対劣化が得られることがわかった。
この研究は、一次元または色チャネルの点雲を標的とする攻撃が、平均的な端点誤差に与える影響も明らかにしている。
- 参考スコア(独自算出の注目度): 9.115508086522887
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks have made significant advancements in accurately estimating scene flow using point clouds, which is vital for many applications like video analysis, action recognition, and navigation. The robustness of these techniques, however, remains a concern, particularly in the face of adversarial attacks that have been proven to deceive state-of-the-art deep neural networks in many domains. Surprisingly, the robustness of scene flow networks against such attacks has not been thoroughly investigated. To address this problem, the proposed approach aims to bridge this gap by introducing adversarial white-box attacks specifically tailored for scene flow networks. Experimental results show that the generated adversarial examples obtain up to 33.7 relative degradation in average end-point error on the KITTI and FlyingThings3D datasets. The study also reveals the significant impact that attacks targeting point clouds in only one dimension or color channel have on average end-point error. Analyzing the success and failure of these attacks on the scene flow networks and their 2D optical flow network variants shows a higher vulnerability for the optical flow networks. Code is available at https://github.com/aheldis/Attack-on-Scene-Flow-using-Point-Clouds.git.
- Abstract(参考訳): 深層ニューラルネットワークは、ビデオ分析、アクション認識、ナビゲーションといった多くのアプリケーションにとって不可欠であるポイントクラウドを使用して、シーンフローを正確に推定する上で、大きな進歩を遂げている。
しかし、これらの手法の堅牢性は、特に多くのドメインで最先端のディープニューラルネットワークを騙すことが証明された敵の攻撃に直面して懸念されている。
驚くべきことに、このような攻撃に対するシーンフローネットワークの堅牢性は、十分に調査されていない。
この問題に対処するため,提案手法は,シーンフローネットワークに特化して,敵のホワイトボックス攻撃を導入することで,このギャップを埋めることを目的としている。
実験結果から,KITTIおよびFlyingThings3Dデータセットの平均終点誤差が最大33.7の相対劣化が得られることがわかった。
この研究は、一次元または色チャネルの点雲を標的とする攻撃が、平均的な端点誤差に与える影響も明らかにしている。
シーンフローネットワークとその2次元光フローネットワークの変種に対するこれらの攻撃の成功と失敗を分析すると、光学フローネットワークの脆弱性が高いことが分かる。
コードはhttps://github.com/aheldis/Attack-on-Scene-Flow-using-Point-Clouds.gitで公開されている。
関連論文リスト
- MirrorAttack: Backdoor Attack on 3D Point Cloud with a Distorting Mirror [5.627919459380763]
MirrorAttackは、新しい効果的な3Dバックドア攻撃法である。
自動エンコーダでクリーンポイントの雲を再構築するだけでトリガーを埋め込む。
我々は,防衛技術の介入により,様々な種類の犠牲者モデルに対して最先端のASRを実現する。
論文 参考訳(メタデータ) (2024-03-09T09:15:37Z) - Exploring Geometry of Blind Spots in Vision Models [56.47644447201878]
CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
論文 参考訳(メタデータ) (2023-10-30T18:00:33Z) - Adversarial Attacks on Leakage Detectors in Water Distribution Networks [6.125017875330933]
配水ネットワークにおける機械学習に基づく漏洩検知器に対する敵攻撃の分類法を提案する。
最も敏感な点問題の数学的形式化に基づいて、解を見つけるために3つの異なるアルゴリズムアプローチを用いる。
論文 参考訳(メタデータ) (2023-05-25T12:05:18Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - PointCA: Evaluating the Robustness of 3D Point Cloud Completion Models
Against Adversarial Examples [63.84378007819262]
本稿では,3次元クラウド完了モデルに対する最初の逆攻撃であるPointCAを提案する。
ポイントCAは、元のものと高い類似性を維持する逆点雲を生成することができる。
その結果,PointCAは77.9%から16.7%に低下し,その構造は0.01以下であることがわかった。
論文 参考訳(メタデータ) (2022-11-22T14:15:41Z) - Dynamics-aware Adversarial Attack of 3D Sparse Convolution Network [75.1236305913734]
ディープニューラルネットワークにおける動的に認識される敵攻撃問題について検討する。
ほとんどの既存の敵攻撃アルゴリズムは基本的な前提の下で設計されており、ネットワークアーキテクチャは攻撃プロセス全体を通して固定されている。
本稿では,LGM(Leaded Gradient Method)を提案する。
論文 参考訳(メタデータ) (2021-12-17T10:53:35Z) - Spatially Focused Attack against Spatiotemporal Graph Neural Networks [8.665638585791235]
深時空間グラフニューラルネットワーク(GNN)は,トラフィック予測アプリケーションにおいて大きな成功を収めている。
GNNが現実世界の予測アプリケーションに脆弱性がある場合、ハッカーは簡単に結果を操作でき、交通渋滞や都市規模の破壊を引き起こす。
論文 参考訳(メタデータ) (2021-09-10T01:31:53Z) - LG-GAN: Label Guided Adversarial Network for Flexible Targeted Attack of
Point Cloud-based Deep Networks [123.5839352227726]
本稿では,リアルタイムなフレキシブル・ターゲット・ポイント・クラウド・アタックのための新しいラベル誘導対向ネットワーク(LG-GAN)を提案する。
私たちの知る限りでは、これが第1世代ベースの3Dポイントクラウドアタック手法です。
論文 参考訳(メタデータ) (2020-11-01T17:17:10Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z) - Minimal Adversarial Examples for Deep Learning on 3D Point Clouds [25.569519066857705]
本研究では、ポイントクラウドベースのニューラルネットワークに対する敵攻撃について検討する。
本稿では2つの異なる攻撃戦略を一般化できる対向点雲生成のための統一的な定式化を提案する。
提案手法は, 合成データと実世界のデータに対して, 89%以上の攻撃成功率と90%の攻撃成功率で, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-08-27T11:50:45Z) - Monocular Depth Estimators: Vulnerabilities and Attacks [6.821598757786515]
ニューラルネットワークの最近の進歩は、信頼できる単分子深度推定につながる。
ディープニューラルネットワークは、分類、検出、セグメンテーションといったタスクの敵のサンプルに対して非常に脆弱である。
本稿では,最も最先端な単分子深度推定ネットワークの敵攻撃に対する消滅について検討する。
論文 参考訳(メタデータ) (2020-05-28T21:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。