論文の概要: FROB: Few-shot ROBust Model for Classification and Out-of-Distribution
Detection
- arxiv url: http://arxiv.org/abs/2111.15487v1
- Date: Tue, 30 Nov 2021 15:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 18:14:04.365328
- Title: FROB: Few-shot ROBust Model for Classification and Out-of-Distribution
Detection
- Title(参考訳): frob: 分類と分散検出のためのロバストモデル
- Authors: Nikolaos Dionelis
- Abstract要約: ROBust (Few-shot ROBust) は、OoD検出のための分類モデルである。
本稿では,自己教師付き学習による数発の信頼境界手法を提案する。
FROBは、競合性能を達成し、少数のサンプル集団と変動性の堅牢性の観点からベンチマークを上回ります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, classification and Out-of-Distribution (OoD) detection in the
few-shot setting remain challenging aims due to rarity and the limited samples
in the few-shot setting, and because of adversarial attacks. Accomplishing
these aims is important for critical systems in safety, security, and defence.
In parallel, OoD detection is challenging since deep neural network classifiers
set high confidence to OoD samples away from the training data. To address such
limitations, we propose the Few-shot ROBust (FROB) model for classification and
few-shot OoD detection. We devise FROB for improved robustness and reliable
confidence prediction for few-shot OoD detection. We generate the support
boundary of the normal class distribution and combine it with few-shot Outlier
Exposure (OE). We propose a self-supervised learning few-shot confidence
boundary methodology based on generative and discriminative models. The
contribution of FROB is the combination of the generated boundary in a
self-supervised learning manner and the imposition of low confidence at this
learned boundary. FROB implicitly generates strong adversarial samples on the
boundary and forces samples from OoD, including our boundary, to be less
confident by the classifier. FROB achieves generalization to unseen OoD with
applicability to unknown, in the wild, test sets that do not correlate to the
training datasets. To improve robustness, FROB redesigns OE to work even for
zero-shots. By including our boundary, FROB reduces the threshold linked to the
model's few-shot robustness; it maintains the OoD performance approximately
independent of the number of few-shots. The few-shot robustness analysis
evaluation of FROB on different sets and on One-Class Classification (OCC) data
shows that FROB achieves competitive performance and outperforms benchmarks in
terms of robustness to the outlier few-shot sample population and variability.
- Abstract(参考訳): 今日では、マイナショット設定における分類と分散(ood)検出は、マイナショット設定におけるラリティーと限られたサンプル、および敵対的な攻撃のために、挑戦的な目標のままである。
これらの目的の達成は、安全、セキュリティ、防衛において重要なシステムにとって重要である。
深層ニューラルネットワーク分類器はトレーニングデータからoodサンプルへの信頼度が高いため、ood検出は並行して難しい。
このような制約に対処するため,Few-shot ROBust (FROB) モデルを提案する。
我々は,少数のood検出に対して,ロバスト性の向上と信頼性の高い信頼度予測を実現する。
正規クラス分布の支持境界を生成し、それを数発のOutlier Exposure(OE)と組み合わせる。
本稿では,生成モデルと識別モデルに基づく自己教師あり学習の少数ショット信頼境界手法を提案する。
FROBの貢献は、自己教師付き学習方式で生成された境界と、この学習境界における低信頼の付与の組み合わせである。
FROB は,OoD の強い反対サンプルを暗黙的に生成し,我々の境界を含む OoD からのサンプルを,分類器による信頼性の低下を強制する。
FROBは、訓練データセットと相関しないテストセットにおいて、未知に適用可能なOoDの一般化を実現している。
堅牢性を改善するため、FROBはOEを再設計し、ゼロショットでも動作するようにした。
我々の境界を含めることで、FROBはモデルの少数ショットのロバスト性に関連するしきい値を減らすことができ、OoDの性能は数ショットの数にほぼ依存しない。
異なるセットと1クラス分類 (occ) データにおける frob のロバスト性評価は, frob が競合性能を達成し, 異常な少数ショットのサンプル数と変動性にロバスト性という点で, ベンチマークを上回っていることを示している。
関連論文リスト
- Confidence Aware Learning for Reliable Face Anti-spoofing [52.23271636362843]
本稿では,その能力境界を意識した信頼認識顔アンチスプーフィングモデルを提案する。
各サンプルの予測中にその信頼性を推定する。
実験の結果,提案したCA-FASは予測精度の低いサンプルを効果的に認識できることがわかった。
論文 参考訳(メタデータ) (2024-11-02T14:29:02Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - ADoPT: LiDAR Spoofing Attack Detection Based on Point-Level Temporal
Consistency [11.160041268858773]
ディープニューラルネットワーク(DNN)は、自動運転車(AV)のためのLiDARベースの知覚システムにますます統合されている
我々は,攻撃者がLiDARデータに偽のオブジェクトを注入し,その環境を誤解釈して誤った判断を下すという,LiDAR偽造攻撃の課題に対処することを目指している。
ADoPT (Anomaly Detection based on Point-level Temporal consistency) は、連続するフレーム間の時間的一貫性を定量的に測定し、ポイントクラスタのコヒーレンシーに基づいて異常物体を同定する。
nuScenesデータセットを用いた評価では、アルゴリズムは様々なLiDARスプーフィング攻撃に対して効果的に対応し、低(低)を実現している。
論文 参考訳(メタデータ) (2023-10-23T02:31:31Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - Your Out-of-Distribution Detection Method is Not Robust! [0.4893345190925178]
オフ・オブ・ディストリビューション(OOD)検出は,信頼性と安全性において領域外サンプルを特定することの重要性から,近年注目されている。
この問題を緩和するために、最近いくつかの防衛策が提案されている。
我々は、より大きな摂動サイズを持つイン/アウトデータに対するエンドツーエンドのPGD攻撃に対して、これらの防御を再検討する。
論文 参考訳(メタデータ) (2022-09-30T05:49:00Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Improving Model Robustness with Latent Distribution Locally and Globally [28.99007833855102]
本研究では,大域的多様体の観点からの敵攻撃に対するディープニューラルネットワークのモデルロバスト性について考察する。
本稿では,ロバストな最適化による新しい対角訓練法と,潜在マニフォールド適応例(LMAE)を生成するための抽出可能な方法を提案する。
The proposed adversarial training with latent Distribution (ATLD) method defends against adversarial attack by crafting LMAEs with the latent manifold in unsupervised manner。
論文 参考訳(メタデータ) (2021-07-08T07:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。