論文の概要: A Majority Invariant Approach to Patch Robustness Certification for Deep
Learning Models
- arxiv url: http://arxiv.org/abs/2308.00452v2
- Date: Thu, 7 Sep 2023 12:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 16:27:42.779278
- Title: A Majority Invariant Approach to Patch Robustness Certification for Deep
Learning Models
- Title(参考訳): ディープラーニングモデルに対するパッチロバスト性認定のための多数不変手法
- Authors: Qilin Zhou, Zhengyuan Wei, Haipeng Wang, and W.K. Chan
- Abstract要約: MajorCertは、同じサンプル上の同じパッチ領域で操作可能なすべての可能なラベルセットを見つける。
それらの組み合わせを要素的に列挙し、これらの組み合わせの大多数の不変量がサンプルを認証するために無傷かどうかをチェックする。
- 参考スコア(独自算出の注目度): 2.6499018693213316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Patch robustness certification ensures no patch within a given bound on a
sample can manipulate a deep learning model to predict a different label.
However, existing techniques cannot certify samples that cannot meet their
strict bars at the classifier or patch region levels. This paper proposes
MajorCert. MajorCert firstly finds all possible label sets manipulatable by the
same patch region on the same sample across the underlying classifiers, then
enumerates their combinations element-wise, and finally checks whether the
majority invariant of all these combinations is intact to certify samples.
- Abstract(参考訳): パッチ堅牢性認証は、サンプル上の特定のバウンド内のパッチがディープラーニングモデルを操作して異なるラベルを予測することを保証します。
しかし、既存の技術では、分類器やパッチ領域レベルで厳格なバーを満たせないサンプルを検証できない。
本稿ではMajorCertを提案する。
MajorCertはまず、すべての可能なラベルセットを、下層の分類器で同じサンプルの同じパッチ領域で操作し、その組み合わせを要素的に列挙し、最後に、これらの組み合わせの大多数の不変量がサンプルを認証するためにそのままであるかどうかをチェックする。
関連論文リスト
- AllMatch: Exploiting All Unlabeled Data for Semi-Supervised Learning [5.0823084858349485]
提案するSSLアルゴリズムであるAllMatchは,擬似ラベル精度の向上とラベルなしデータの100%利用率の向上を実現する。
その結果、AllMatchは既存の最先端メソッドよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-06-22T06:59:52Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Localized Randomized Smoothing for Collective Robustness Certification [60.83383487495282]
我々は、あらゆる種類のモデルに対してより一般的な集合的ロバスト性証明を提案する。
このアプローチは、より大規模なソフトな局所モデルに対して有益であることを示す。
この証明書は、我々の新しい局所的ランダム化平滑化アプローチに基づいている。
論文 参考訳(メタデータ) (2022-10-28T14:10:24Z) - Towards Evading the Limits of Randomized Smoothing: A Theoretical
Analysis [74.85187027051879]
決定境界を複数の雑音分布で探索することにより,任意の精度で最適な証明を近似できることを示す。
この結果は、分類器固有の認証に関するさらなる研究を後押しし、ランダム化された平滑化が依然として調査に値することを示す。
論文 参考訳(メタデータ) (2022-06-03T17:48:54Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z) - Multi-Complementary and Unlabeled Learning for Arbitrary Losses and
Models [6.177038245239757]
本稿では,新しい多言語学習フレームワークを提案する。
まず、複数の相補ラベルを持つサンプルから、分類リスクの偏りのない推定を行う。
次に,未ラベルのサンプルをリスク定式化に組み込むことにより,予測器をさらに改良する。
論文 参考訳(メタデータ) (2020-01-13T13:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。