論文の概要: On Adversarial Robustness of Point Cloud Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2112.05871v4
- Date: Sun, 23 Apr 2023 23:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 00:53:09.741664
- Title: On Adversarial Robustness of Point Cloud Semantic Segmentation
- Title(参考訳): 点雲セマンティックセグメンテーションの逆ロバスト性について
- Authors: Jiacen Xu, Zhe Zhou, Boyuan Feng, Yufei Ding, Zhou Li
- Abstract要約: PCSSは、自律運転のような多くの安全クリティカルなアプリケーションに適用されている。
本研究は, PCSS モデルが敵対的サンプルにどのような影響を及ぼすかを示す。
我々は研究コミュニティの注意を喚起し、PCSSモデルを強化するための新しいアプローチを開発する。
- 参考スコア(独自算出の注目度): 16.89469632840972
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent research efforts on 3D point cloud semantic segmentation (PCSS) have
achieved outstanding performance by adopting neural networks. However, the
robustness of these complex models have not been systematically analyzed. Given
that PCSS has been applied in many safety-critical applications like autonomous
driving, it is important to fill this knowledge gap, especially, how these
models are affected under adversarial samples. As such, we present a
comparative study of PCSS robustness. First, we formally define the attacker's
objective under performance degradation and object hiding. Then, we develop new
attack by whether to bound the norm. We evaluate different attack options on
two datasets and three PCSS models. We found all the models are vulnerable and
attacking point color is more effective. With this study, we call the attention
of the research community to develop new approaches to harden PCSS models.
- Abstract(参考訳): 3d point cloud semantic segmentation(pcss)に関する最近の研究は、ニューラルネットワークの採用によって優れた性能を達成している。
しかし、これらの複雑なモデルの堅牢性は体系的に分析されていない。
pcssが自動運転のような多くの安全クリティカルなアプリケーションに適用されていることを考えると、この知識のギャップを埋めることは重要である。
そこで,本研究ではpcsのロバスト性の比較検討を行う。
まず、パフォーマンス劣化とオブジェクトの隠蔽において、攻撃者の目的を正式に定義する。
そして、規範に縛られるかどうかによって新たな攻撃を展開する。
2つのデータセットと3つのpcsモデルで異なる攻撃オプションを評価した。
すべてのモデルは脆弱で、攻撃的なポイントカラーの方が効果的です。
本研究では,pcssモデルを強固化するための新しいアプローチの開発に,研究コミュニティの注意を喚起する。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - PCLD: Point Cloud Layerwise Diffusion for Adversarial Purification [0.8192907805418583]
ポイントクラウドは、ロボット工学、自律運転、拡張現実など、さまざまな現実世界のアプリケーションに広く利用されている。
モデルの堅牢性を評価する典型的な方法は、敵攻撃によるものである。
本稿では, 層状拡散に基づく3次元ポイントクラウド防衛戦略であるポイントクラウド層拡散(PCLD)を提案する。
論文 参考訳(メタデータ) (2024-03-11T13:13:10Z) - Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - A Survey on Vulnerability of Federated Learning: A Learning Algorithm
Perspective [8.941193384980147]
FLシステムの学習プロセスを対象とした脅威モデルに焦点を当てる。
防衛戦略は、特定のメトリクスを使用して悪意のあるクライアントを除外することから進化してきた。
最近の取り組みは、ローカルモデルの最小限の重みを、防御措置をバイパスするために微妙に変更している。
論文 参考訳(メタデータ) (2023-11-27T18:32:08Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - Efficient Person Search: An Anchor-Free Approach [86.45858994806471]
パーソンサーチは、クエリーの人物を、リアルで切り刻まれていない画像から、同時にローカライズし、識別することを目的としている。
この目標を達成するために、最先端モデルは通常、Faster R-CNNのような2段階検出器にre-idブランチを追加する。
本研究では,この課題に対処するためのアンカーフリーな手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:01:33Z) - A Deep Marginal-Contrastive Defense against Adversarial Attacks on 1D
Models [3.9962751777898955]
ディープラーニングアルゴリズムは最近、脆弱性のために攻撃者がターゲットとしている。
非連続的深層モデルは、いまだに敵対的な攻撃に対して頑健ではない。
本稿では,特徴を特定のマージン下に置くことによって予測を容易にする新しい目的/損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-08T20:51:43Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。