論文の概要: Robustifying Point Cloud Networks by Refocusing
- arxiv url: http://arxiv.org/abs/2308.05525v3
- Date: Tue, 12 Mar 2024 15:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 01:53:31.546639
- Title: Robustifying Point Cloud Networks by Refocusing
- Title(参考訳): リフォーカスによるロバストなポイントクラウドネットワーク
- Authors: Meir Yossef Levi, Guy Gilboa
- Abstract要約: 我々は、焦点分析に基づくニューラルネットワークのロバスト性を高めるための一般的なメカニズムを開発する。
最近の研究では、textitOverfocusingの現象が明らかにされており、パフォーマンス低下につながっている。
パラメータフリーなtextbfrefocusing アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.741012804505561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to cope with out-of-distribution (OOD) corruptions and
adversarial attacks is crucial in real-world safety-demanding applications. In
this study, we develop a general mechanism to increase neural network
robustness based on focus analysis.
Recent studies have revealed the phenomenon of \textit{Overfocusing}, which
leads to a performance drop. When the network is primarily influenced by small
input regions, it becomes less robust and prone to misclassify under noise and
corruptions.
However, quantifying overfocusing is still vague and lacks clear definitions.
Here, we provide a mathematical definition of \textbf{focus},
\textbf{overfocusing} and \textbf{underfocusing}. The notions are general, but
in this study, we specifically investigate the case of 3D point clouds.
We observe that corrupted sets result in a biased focus distribution compared
to the clean training set.
We show that as focus distribution deviates from the one learned in the
training phase - classification performance deteriorates.
We thus propose a parameter-free \textbf{refocusing} algorithm that aims to
unify all corruptions under the same distribution.
We validate our findings on a 3D zero-shot classification task, achieving
SOTA in robust 3D classification on ModelNet-C dataset, and in adversarial
defense against Shape-Invariant attack. Code is available in:
https://github.com/yossilevii100/refocusing.
- Abstract(参考訳): アウトオブディストリビューション(ood)の腐敗や敵対的な攻撃に対処する能力は、現実世界の安全要求アプリケーションにおいて不可欠である。
本研究では,焦点分析に基づくニューラルネットワークのロバスト性を高める汎用メカニズムを提案する。
最近の研究では、パフォーマンス低下につながる \textit{overfocusing} 現象が明らかにされている。
ネットワークが主に小さな入力領域の影響を受けると、ノイズや腐敗の下では、ロバストが小さくなり、誤分類されやすくなります。
しかし、過剰焦点の定量化はまだ曖昧であり、明確な定義がない。
ここでは、 \textbf{focus}, \textbf{overfocusing} および \textbf{underfocusing} の数学的定義を提供する。
概念は一般的だが,本研究では3次元点雲の場合を具体的に検討する。
劣化した集合がクリーンなトレーニングセットに比べて偏りのある焦点分布をもたらすことを観察する。
トレーニングフェーズで学んだものから焦点分布が逸脱するにつれて、分類性能が低下することを示す。
したがって,同一分布下ですべての腐敗を統一することを目的としたパラメータフリーな \textbf{refocusing} アルゴリズムを提案する。
3次元ゼロショット分類タスクにおいて,modelnet-cデータセット上でのロバストな3次元分類と,形状不変攻撃に対する敵対的防御においてsotaが達成されたことを検証した。
コードは、https://github.com/yossilevii100/refocusing.comで入手できる。
関連論文リスト
- Unsupervised Keypoints from Pretrained Diffusion Models [31.147785019795347]
我々は、テキストから画像への拡散モデルにおける創発的な知識を、より堅牢な教師なしキーポイントに活用する。
私たちの中核となる考え方は、生成モデルが画像のコンパクトな領域に一貫して従う原因となるテキスト埋め込みを見つけることです。
CelebA、CUB-200-2011、Tai-Chi-HD、DeepFashion、Human3.6mのデータセットでパフォーマンスを検証する。
論文 参考訳(メタデータ) (2023-11-29T19:43:38Z) - CSI: Enhancing the Robustness of 3D Point Cloud Recognition against
Corruption [33.70232326721406]
現実世界の安全クリティカルなアプリケーションは、避けられないデータ破損による課題を提示する。
本研究では、ポイントクラウドデータ固有の設定特性を利用して、新しいクリティカルサブセット識別(CSI)手法を導入する。
我々のCSIフレームワークは、密度認識サンプリング(DAS)と自己エントロピー最小化(SEM)の2つの重要なコンポーネントを統合している。
論文 参考訳(メタデータ) (2023-10-05T07:30:52Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - CLAD: A Contrastive Learning based Approach for Background Debiasing [43.0296255565593]
我々は,CNNにおける背景バイアスを軽減するために,対照的な学習に基づくアプローチを導入する。
前回のベンチマークを4.1%で上回り、バックグラウンドチャレンジデータセットで最先端の結果を得た。
論文 参考訳(メタデータ) (2022-10-06T08:33:23Z) - Explainability-Aware One Point Attack for Point Cloud Neural Networks [0.0]
本研究は2つの新たな攻撃手法である opa と cta を提案する。
入力インスタンスから1ポイントだけをシフトすることで、人気の高いクラウドネットワークを100%の成功率で騙すことができることを示す。
また,異なる点帰属分布が点クラウドネットワークの対角的ロバスト性に与える影響についても考察した。
論文 参考訳(メタデータ) (2021-10-08T14:29:02Z) - Local Aggressive Adversarial Attacks on 3D Point Cloud [12.121901103987712]
ディープニューラルネットワークは、モデルを意図的に騙してミスを犯すような敵の例をしがちだ。
本稿では,上記の課題を解決するために,攻撃的攻撃的攻撃攻撃(L3A)を提案する。
PointNet, PointNet++ および DGCNN を用いた実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2021-05-19T12:22:56Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - IF-Defense: 3D Adversarial Point Cloud Defense via Implicit Function
based Restoration [68.88711148515682]
ディープニューラルネットワークは、様々な3D敵攻撃に対して脆弱である。
本稿では,幾何学的制約と分布的制約を伴って入力点の座標を直接最適化するIF-Defenseフレームワークを提案する。
この結果から,IF-Defense は PointNet, PointNet++, DGCNN, PointConv, RS-CNN に対する既存の3次元攻撃に対して,最先端の防御性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-11T15:36:40Z) - Informative Dropout for Robust Representation Learning: A Shape-bias
Perspective [84.30946377024297]
Informative Dropout (InfoDrop) と呼ばれる軽量モデル非依存の手法を提案し, 解釈性の向上とテクスチャバイアスの低減を図る。
具体的には、画像中の局所的な自己情報に基づいて形状からテクスチャを識別し、Dropoutのようなアルゴリズムを用いて局所的なテクスチャからのモデル出力をデコレーションする。
論文 参考訳(メタデータ) (2020-08-10T16:52:24Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Disp R-CNN: Stereo 3D Object Detection via Shape Prior Guided Instance
Disparity Estimation [51.17232267143098]
ステレオ画像から3次元物体を検出するための新しいシステムDisp R-CNNを提案する。
我々は、LiDAR点雲を必要とせずに、統計的形状モデルを用いて、密度の異なる擬似地下構造を生成する。
KITTIデータセットの実験によると、LiDARの基盤構造がトレーニング時に利用できない場合でも、Disp R-CNNは競争性能を達成し、平均精度で従来の最先端手法を20%上回っている。
論文 参考訳(メタデータ) (2020-04-07T17:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。