論文の概要: Riemannian data-dependent randomized smoothing for neural networks
certification
- arxiv url: http://arxiv.org/abs/2206.10235v1
- Date: Tue, 21 Jun 2022 10:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 02:52:33.700105
- Title: Riemannian data-dependent randomized smoothing for neural networks
certification
- Title(参考訳): ニューラルネットワーク認証のためのリーマンデータ依存ランダム平滑化
- Authors: Pol Labarbarie, Hatem Hajri, Marc Arnaudon
- Abstract要約: 本稿では,確率論的に堅牢なニューラルネットワークを得るための最先端手法と考えられるランダム化平滑化(RS)に焦点を当てる。
特に、最近導入されたanceRと呼ばれる新しいデータ依存RS技術は、ニューラルネットワークの各入力データの近くに軸を持つ楕円を認証するために使用することができる。
本稿では, 軸に制約を伴わずに楕円を証明できる ANCER の回転不変な新しい定式化を提案する。
- 参考スコア(独自算出の注目度): 0.90238471756546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Certification of neural networks is an important and challenging problem that
has been attracting the attention of the machine learning community since few
years. In this paper, we focus on randomized smoothing (RS) which is considered
as the state-of-the-art method to obtain certifiably robust neural networks. In
particular, a new data-dependent RS technique called ANCER introduced recently
can be used to certify ellipses with orthogonal axis near each input data of
the neural network. In this work, we remark that ANCER is not invariant under
rotation of input data and propose a new rotationally-invariant formulation of
it which can certify ellipses without constraints on their axis. Our approach
called Riemannian Data Dependant Randomized Smoothing (RDDRS) relies on
information geometry techniques on the manifold of covariance matrices and can
certify bigger regions than ANCER based on our experiments on the MNIST
dataset.
- Abstract(参考訳): ニューラルネットワークの認定は、数年前から機械学習コミュニティの注目を集めてきた、重要かつ困難な問題である。
本稿では,確率論的に堅牢なニューラルネットワークを得るための最先端手法と考えられるランダム化平滑化(RS)に焦点を当てる。
特に、最近導入されたancerと呼ばれる新しいデータ依存rs技術は、ニューラルネットワークの各入力データの近くに直交軸を持つ楕円を証明できる。
本研究では,入力データの回転下ではアンサーは不変ではないことを指摘し,軸に制約なく楕円を証明できる新しい回転不変な定式化を提案する。
我々のアプローチはRiemannian Data Dependant Randomized Smoothing (RDDRS)と呼ばれ、共分散行列の多様体上の情報幾何学技術に依存しており、MNISTデータセットの実験に基づいて、anceRよりも大きな領域を認証することができる。
関連論文リスト
- Deep Learning as Ricci Flow [38.27936710747996]
ディープニューラルネットワーク(DNN)は、複雑なデータの分布を近似する強力なツールである。
分類タスク中のDNNによる変換は、ハミルトンのリッチ流下で期待されるものと類似していることを示す。
本研究の成果は, 微分幾何学や離散幾何学から, 深層学習における説明可能性の問題まで, ツールの利用を動機づけるものである。
論文 参考訳(メタデータ) (2024-04-22T15:12:47Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Neural networks for geospatial data [0.0]
NN-GLSは、GPモデルの非線形平均に対する新しいニューラルネットワーク推定アルゴリズムである。
NN-GLSはグラフニューラルネットワーク(GNN)の特殊型として表現されていることを示す。
理論的には、NN-GLSは不規則に観測された空間相関データプロセスに一貫性があることが示されている。
論文 参考訳(メタデータ) (2023-04-18T17:52:23Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - How can spherical CNNs benefit ML-based diffusion MRI parameter
estimation? [2.4417196796959906]
球状畳み込みニューラルネットワーク(S-CNN)は、従来の完全連結ネットワーク(FCN)に対して明確な優位性を提供する
拡散強調画像(DWI)のみからなるdMRIデータを取得する現況
論文 参考訳(メタデータ) (2022-07-01T17:49:26Z) - Revisiting Gaussian Neurons for Online Clustering with Unknown Number of
Clusters [0.0]
参照するクラスタ数の最大限のオンラインクラスタリングを行う、新しいローカルラーニングルールが提示される。
実験結果は,学習パラメータの安定性を多数のトレーニングサンプルで実証した。
論文 参考訳(メタデータ) (2022-05-02T14:01:40Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Fusing the Old with the New: Learning Relative Camera Pose with
Geometry-Guided Uncertainty [91.0564497403256]
本稿では,ネットワークトレーニング中の2つの予測系間の確率的融合を含む新しい枠組みを提案する。
本ネットワークは,異なる対応間の強い相互作用を強制することにより学習を駆動する自己追跡グラフニューラルネットワークを特徴とする。
学習に適したモーションパーマリゼーションを提案し、難易度の高いDeMoNおよびScanNetデータセットで最新のパフォーマンスを達成できることを示します。
論文 参考訳(メタデータ) (2021-04-16T17:59:06Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Bayesian neural networks and dimensionality reduction [4.039245878626346]
そのような問題に対するモデルに基づくアプローチのクラスは、未知の非線形回帰関数における潜在変数を含む。
VAEは、近似を用いて計算をトラクタブルにする人工知能ニューラルネットワーク(ANN)である。
潜在変数を持つANNモデルにおいて,マルコフ連鎖モンテカルロサンプリングアルゴリズムをベイズ推定のために展開する。
論文 参考訳(メタデータ) (2020-08-18T17:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。