論文の概要: Localized Randomized Smoothing for Collective Robustness Certification
- arxiv url: http://arxiv.org/abs/2210.16140v1
- Date: Fri, 28 Oct 2022 14:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:39:38.868838
- Title: Localized Randomized Smoothing for Collective Robustness Certification
- Title(参考訳): 集団ロバストネス認証のための局所ランダム化平滑化
- Authors: Jan Schuchardt, Tom Wollschl\"ager, Aleksandar Bojchevski, Stephan
G\"unnemann
- Abstract要約: 我々は、あらゆる種類のモデルに対してより一般的な集合的ロバスト性証明を提案する。
このアプローチは、より大規模なソフトな局所モデルに対して有益であることを示す。
この証明書は、我々の新しい局所的ランダム化平滑化アプローチに基づいている。
- 参考スコア(独自算出の注目度): 71.78900818931847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Models for image segmentation, node classification and many other tasks map a
single input to multiple labels. By perturbing this single shared input (e.g.
the image) an adversary can manipulate several predictions (e.g. misclassify
several pixels). Collective robustness certification is the task of provably
bounding the number of robust predictions under this threat model. The only
dedicated method that goes beyond certifying each output independently is
limited to strictly local models, where each prediction is associated with a
small receptive field. We propose a more general collective robustness
certificate for all types of models and further show that this approach is
beneficial for the larger class of softly local models, where each output is
dependent on the entire input but assigns different levels of importance to
different input regions (e.g. based on their proximity in the image). The
certificate is based on our novel localized randomized smoothing approach,
where the random perturbation strength for different input regions is
proportional to their importance for the outputs. Localized smoothing
Pareto-dominates existing certificates on both image segmentation and node
classification tasks, simultaneously offering higher accuracy and stronger
guarantees.
- Abstract(参考訳): イメージセグメンテーション、ノード分類、その他多くのタスクのモデルは、単一の入力を複数のラベルにマッピングする。
この単一の共有入力(例えば画像)を摂動させることで、敵はいくつかの予測(例えば複数のピクセルを誤分類する)を操作できる。
集合的堅牢性認証は、この脅威モデルの下で堅牢性予測の数を確実に制限するタスクである。
各出力を独立に検証する以上の唯一の専用方法は、厳密な局所モデルに限定され、各予測は小さな受容場に関連付けられる。
さらに,各出力は入力全体に依存するが,異なる入力領域(例えば,画像内の近接性に基づいて)に異なるレベルの重要度を割り当てる。
この証明は、異なる入力領域に対するランダムな摂動強度が出力に対する重要性に比例する、新しい局所的ランダム化平滑化手法に基づいている。
ローカライズされた平滑化パレートは、画像分割とノード分類タスクの両方で既存の証明書を優位に置き、高い精度と強力な保証を提供する。
関連論文リスト
- Deep Domain Isolation and Sample Clustered Federated Learning for Semantic Segmentation [2.515027627030043]
本稿では,2次元セグメンテーションタスクにおける参加者間の共変量変化の影響を初めて検討する。
我々は、モデルの勾配空間内で直接画像領域を分離するディープドメイン分離(DDI)を開発する。
我々は,このクラスタリングアルゴリズムをSCFL(Sample Clustered Federated Learning)フレームワークを通じて活用する。
論文 参考訳(メタデータ) (2024-10-04T12:43:07Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - Collective Robustness Certificates: Exploiting Interdependence in Graph
Neural Networks [71.78900818931847]
ノード分類、画像分割、名前付き一致認識といったタスクでは、複数の予測を同時に出力する分類器があります。
既存の対向ロバスト性証明は、それぞれの予測を独立に考慮し、従ってそのようなタスクに対して過度に悲観的である。
本稿では,摂動下で安定に保たれることが保証される予測数を計算した最初の集合ロバスト性証明を提案する。
論文 参考訳(メタデータ) (2023-02-06T14:46:51Z) - SpanProto: A Two-stage Span-based Prototypical Network for Few-shot
Named Entity Recognition [45.012327072558975]
名前付きエンティティ認識(NER)は、アノテーション付きデータが少ない名前付きエンティティを識別することを目的としている。
そこで本研究では,2段階のアプローチを用いて,数発のNERに対処するセミナルスパンベースプロトタイプネットワーク(SpanProto)を提案する。
スパン抽出の段階では、逐次タグを大域境界行列に変換し、モデルが明示的な境界情報に集中できるようにする。
分類に言及するために、原型学習を活用してラベル付きスパンのセマンティック表現をキャプチャし、新しいクラスエンティティへの適応性を向上する。
論文 参考訳(メタデータ) (2022-10-17T12:59:33Z) - Semi-supervised Semantic Segmentation with Prototype-based Consistency
Regularization [20.4183741427867]
半教師付きセマンティックセグメンテーションでは、制限された注釈付き画像からラベルなし画像へラベル情報を伝達する必要がある。
このようなピクセルごとの予測タスクの課題は、クラス内の大きなバリエーションである。
本稿では,ラベルの伝搬困難を緩和するために,クラス内特徴の分布を正規化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-10T01:38:01Z) - Open-World Instance Segmentation: Exploiting Pseudo Ground Truth From
Learned Pairwise Affinity [59.1823948436411]
我々は、マスク提案のための新しいアプローチ、ジェネリックグループネットワーク(GGN)を提案する。
我々のアプローチは、ピクセル親和性の局所測定とインスタンスレベルのマスク監視を組み合わせることで、データの多様性が許容するほど汎用的なモデルを設計したトレーニングレギュレータを生成する。
論文 参考訳(メタデータ) (2022-04-12T22:37:49Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。