論文の概要: Generating Band-Limited Adversarial Surfaces Using Neural Networks
- arxiv url: http://arxiv.org/abs/2111.07424v1
- Date: Sun, 14 Nov 2021 19:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 14:54:57.776494
- Title: Generating Band-Limited Adversarial Surfaces Using Neural Networks
- Title(参考訳): ニューラルネットワークを用いた帯域制限面の生成
- Authors: Roee Ben Shlomo, Yevgeniy Men, Ido Imanuel
- Abstract要約: 逆の例は、分類ニューラルネットワークの入力信号に追加されるノイズを生成する技術である。
この技術的レポートでは、攻撃を発生させるニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.9208007322096533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating adversarial examples is the art of creating a noise that is added
to an input signal of a classifying neural network, and thus changing the
network's classification, while keeping the noise as tenuous as possible. While
the subject is well-researched in the 2D regime, it is lagging behind in the 3D
regime, i.e. attacking a classifying network that works on 3D point-clouds or
meshes and, for example, classifies the pose of people's 3D scans. As of now,
the vast majority of papers that describe adversarial attacks in this regime
work by methods of optimization. In this technical report we suggest a neural
network that generates the attacks. This network utilizes PointNet's
architecture with some alterations. While the previous articles on which we
based our work on have to optimize each shape separately, i.e. tailor an attack
from scratch for each individual input without any learning, we attempt to
create a unified model that can deduce the needed adversarial example with a
single forward run.
- Abstract(参考訳): 敵対的な例を生成する技術は、ニューラルネットワークの入力信号に付加されるノイズを生成し、それによってネットワークの分類を変更しながら、ノイズを可能な限り厳しく保つ技術である。
被験者は2D政権でよく研究されているが、3D政権では遅れている。すなわち、3Dポイントクラウドやメッシュで動作する分類ネットワークを攻撃し、例えば人々の3Dスキャンのポーズを分類する。
現在、この体制における敵攻撃を記述したほとんどの論文は、最適化の方法によって機能している。
本報告では,攻撃を発生させるニューラルネットワークを提案する。
このネットワークはpointnetのアーキテクチャにいくつかの変更を加えている。
従来の論文では各形状を個別に最適化する必要があり、例えば学習せずに個々の入力に対してスクラッチから攻撃を調整しなければなりませんでしたが、単一のフォワードランで必要な対向例を推論できる統一モデルを作成しようとします。
関連論文リスト
- Learning Robust 3D Representation from CLIP via Dual Denoising [4.230780744307392]
私たちはCLIPから堅牢で一般化された3D表現を学習するための新しいフレームワークであるDual Denoisingを提案する。
3D事前トレーニングのための、デノナイジングベースのプロキシタスクと、新たな機能デノナイジングネットワークを組み合わせたものだ。
実験により,本モデルは3次元学習ネットワークの表現学習性能と対角的ロバスト性を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2024-07-01T02:15:03Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Occlusion Resilient 3D Human Pose Estimation [52.49366182230432]
排除は、シングルカメラビデオシーケンスからの3Dボディポーズ推定における重要な課題の1つとして残されている。
単一カメラシーケンスからポーズを推測する最先端技術と比較して,このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-16T19:29:43Z) - SAGA: Spectral Adversarial Geometric Attack on 3D Meshes [13.84270434088512]
三角形メッシュは、最も人気のある3Dデータ表現の1つである。
本稿では,3次元メッシュオートエンコーダに対する幾何学的逆アタックのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-24T19:29:04Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - Random Walks for Adversarial Meshes [12.922946578413578]
本稿では,メッシュ分類ニューラルネットワークに対する新しい,統一的で汎用的な攻撃法を提案する。
私たちの攻撃アプローチはブラックボックスであり、ネットワークの予測のみにアクセスできるが、ネットワークの完全なアーキテクチャや勾配にはアクセスできない。
論文 参考訳(メタデータ) (2022-02-15T14:31:17Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Geometric Adversarial Attacks and Defenses on 3D Point Clouds [25.760935151452063]
本研究は,幾何学的レベルでの逆例を考察する。
つまり、クリーンなソースポイントクラウドへの小さな変更は、autoencoderモデルを通過した後、異なるターゲットクラスからの形状へと導かれる。
防御側では,敵の入力に防御を施した後も,攻撃対象形状の残余が再建された出力に残っていることを示す。
論文 参考訳(メタデータ) (2020-12-10T13:30:06Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。