論文の概要: Random Walks for Adversarial Meshes
- arxiv url: http://arxiv.org/abs/2202.07453v1
- Date: Tue, 15 Feb 2022 14:31:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 15:05:19.308661
- Title: Random Walks for Adversarial Meshes
- Title(参考訳): 逆メッシュのためのランダムウォーク
- Authors: Amir Belder, Gal Yefet, Ran Ben Izhak, Ayellet Tal
- Abstract要約: 本稿では,メッシュ分類ニューラルネットワークに対する新しい,統一的で汎用的な攻撃法を提案する。
私たちの攻撃アプローチはブラックボックスであり、ネットワークの予測のみにアクセスできるが、ネットワークの完全なアーキテクチャや勾配にはアクセスできない。
- 参考スコア(独自算出の注目度): 12.922946578413578
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A polygonal mesh is the most-commonly used representation of surfaces in
computer graphics; thus, a variety of classification networks have been
recently proposed. However, while adversarial attacks are wildly researched in
2D, almost no works on adversarial meshes exist. This paper proposes a novel,
unified, and general adversarial attack, which leads to misclassification of
numerous state-of-the-art mesh classification neural networks. Our attack
approach is black-box, i.e. it has access only to the network's predictions,
but not to the network's full architecture or gradients. The key idea is to
train a network to imitate a given classification network. This is done by
utilizing random walks along the mesh surface, which gather geometric
information. These walks provide insight onto the regions of the mesh that are
important for the correct prediction of the given classification network. These
mesh regions are then modified more than other regions in order to attack the
network in a manner that is barely visible to the naked eye.
- Abstract(参考訳): 多角形メッシュはコンピュータグラフィックスにおいて最もよく使われる表面表現であり、近年様々な分類網が提案されている。
しかし、逆境攻撃は2dでかなり研究されているが、逆境メッシュの研究はほとんど存在しない。
本稿では,最先端メッシュ分類ニューラルネットワークの誤分類につながる,新しい,統一的,汎用的な敵攻撃を提案する。
私たちの攻撃アプローチはブラックボックスであり、ネットワークの予測のみにアクセスするが、ネットワークの完全なアーキテクチャや勾配にはアクセスできない。
重要なアイデアは、所定の分類ネットワークを模倣するネットワークをトレーニングすることだ。
これはメッシュ表面に沿ってランダムウォークを利用することで行われ、幾何学的情報を集める。
これらのウォークは、与えられた分類ネットワークの正確な予測に重要なメッシュの領域に関する洞察を提供する。
これらのメッシュ領域は、肉眼ではほとんど見えない方法でネットワークを攻撃するために、他の領域よりも修正される。
関連論文リスト
- SieveNet: Selecting Point-Based Features for Mesh Networks [41.74190660234404]
メッシュは3Dコンピュータビジョンとグラフィックスで広く使用されているが、その不規則なトポロジは、既存のニューラルネットワークアーキテクチャに適用する際の課題を提起している。
メッシュニューラルネットワークの最近の進歩は、生メッシュを入力としてのみ取り込むパイオニアメソッドの境界を押し付けている。
本稿では、正規位相と正確な幾何学の両方を考慮した新しいパラダイムであるSieveNetを提案する。
論文 参考訳(メタデータ) (2023-08-24T03:40:16Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - SAGA: Spectral Adversarial Geometric Attack on 3D Meshes [13.84270434088512]
三角形メッシュは、最も人気のある3Dデータ表現の1つである。
本稿では,3次元メッシュオートエンコーダに対する幾何学的逆アタックのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-24T19:29:04Z) - Generating Band-Limited Adversarial Surfaces Using Neural Networks [0.9208007322096533]
逆の例は、分類ニューラルネットワークの入力信号に追加されるノイズを生成する技術である。
この技術的レポートでは、攻撃を発生させるニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-14T19:16:05Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - MeshWalker: Deep Mesh Understanding by Random Walks [19.594977587417247]
コンピュータグラフィックスにおける最も一般的な3D形状(三角形メッシュ)の表現を見て、ディープラーニングでどのように活用できるかを尋ねる。
本稿では、メッシュから形状を直接学習する、まったく異なるアプローチであるMeshWalkerを提案する。
提案手法は,2つの基本形状解析タスクに対して,最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-06-09T15:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。