論文の概要: EasyRobust: A Comprehensive and Easy-to-use Toolkit for Robust and Generalized Vision
- arxiv url: http://arxiv.org/abs/2503.16975v1
- Date: Fri, 21 Mar 2025 09:43:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:56:45.735875
- Title: EasyRobust: A Comprehensive and Easy-to-use Toolkit for Robust and Generalized Vision
- Title(参考訳): EasyRobust:ロバストと一般化ビジョンのための包括的で使いやすいツールキット
- Authors: Xiaofeng Mao, Yuefeng Chen, Rong Zhang, Hui Xue, Zhao Li, Hang Su,
- Abstract要約: 敵攻撃とデータ分散シフトは、マシン性能を低下させる2つの主要なシナリオとして知られてきた。
我々は,堅牢な視覚モデルのトレーニング,評価,分析を行うための総合的で使いやすいツールキットであるEasyRobustを開発した。
- 参考スコア(独自算出の注目度): 31.398663108822834
- License:
- Abstract: Deep neural networks (DNNs) has shown great promise in computer vision tasks. However, machine vision achieved by DNNs cannot be as robust as human perception. Adversarial attacks and data distribution shifts have been known as two major scenarios which degrade machine performance and obstacle the wide deployment of machines "in the wild". In order to break these obstructions and facilitate the research of model robustness, we develop EasyRobust, a comprehensive and easy-to-use toolkit for training, evaluation and analysis of robust vision models. EasyRobust targets at two types of robustness: 1) Adversarial robustness enables the model to defense against malicious inputs crafted by worst-case perturbations, also known as adversarial examples; 2) Non-adversarial robustness enhances the model performance on natural test images with corruptions or distribution shifts. Thorough benchmarks on image classification enable EasyRobust to provide an accurate robustness evaluation on vision models. We wish our EasyRobust can help for training practically-robust models and promote academic and industrial progress in closing the gap between human and machine vision. Codes and models of EasyRobust have been open-sourced in https://github.com/alibaba/easyrobust.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、コンピュータビジョンタスクにおいて大きな可能性を秘めている。
しかし、DNNが達成したマシンビジョンは人間の知覚ほど堅牢ではない。
敵攻撃とデータ分散シフトは、マシンのパフォーマンスを低下させ、"野生"のマシンの広範な展開を妨げる2つの主要なシナリオとして知られていた。
これらの障害を解消し、モデルロバスト性の研究を容易にするため、我々は、ロバストな視覚モデルの訓練、評価、分析のための包括的で使いやすいツールキットであるEasyRobustを開発した。
EasyRobustのターゲットは2種類ある。
1) 逆境の堅牢性により、最悪の場合の摂動(逆境の例としても知られる)によって作られた悪意のある入力に対して、モデルが防御することができる。
2)非対向ロバスト性は, 汚損や分布シフトを伴う自然検定画像のモデル性能を向上させる。
画像分類に関する詳細なベンチマークにより、EasyRobustは視覚モデルに対して正確なロバスト性評価を提供することができる。
我々のEasyRobustは、人間と機械の視界のギャップを埋める上で、実用的なロバストモデルを訓練し、学術的および産業的な進歩を促進するのに役立ちたい。
EasyRobustのコードとモデルはhttps://github.com/alibaba/easyrobust.comでオープンソース化されている。
関連論文リスト
- Robust-LLaVA: On the Effectiveness of Large-Scale Robust Image Encoders for Multi-modal Large Language Models [26.656858396343726]
MLLM(Multi-modal Large Language Models)は、視覚言語タスクにおいて優れているが、視覚的逆境の摂動に弱いままである。
既存の手法では、ImageNet-scaleデータ上でCLIPビジョンエンコーダに制約付き逆調整を適用することにより、これらのリスクを軽減する方法が提案されている。
本稿では,大規模データに対して逆向きに事前学習された既存の視覚分類モデルを活用する方法を提案する。
論文 参考訳(メタデータ) (2025-02-03T17:59:45Z) - In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [104.94706600050557]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - ABNet: Attention BarrierNet for Safe and Scalable Robot Learning [58.4951884593569]
バリアベースの手法は、安全なロボット学習における主要なアプローチの1つである。
本稿では,より大規模な基本安全モデルを段階的に構築するスケーラブルなAttention BarrierNet(ABNet)を提案する。
2次元ロボット障害物回避、安全なロボット操作、視覚に基づくエンドツーエンド自動運転におけるABNetの強みを実証する。
論文 参考訳(メタデータ) (2024-06-18T19:37:44Z) - Harmonic Machine Learning Models are Robust [3.263224198355111]
我々は、任意の機械学習モデルの堅牢性をテストするための強力で直感的な方法であるハーモニックロバストネスを紹介する。
これは高調波平均値特性からの関数的偏差に基づいており、不安定性と説明可能性の欠如を示している。
論文 参考訳(メタデータ) (2024-04-29T16:07:36Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - A Survey on the Robustness of Computer Vision Models against Common Corruptions [3.6486148851646063]
コンピュータビジョンモデルは、センサーエラーや極端な撮像環境に起因する入力画像の変化に影響を受けやすい。
これらの破損は、現実のシナリオにデプロイする際のモデルの信頼性を著しく損なう可能性がある。
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
論文 参考訳(メタデータ) (2023-05-10T10:19:31Z) - Robust Models are less Over-Confident [10.42820615166362]
敵の訓練(AT)は、このような攻撃に対して堅牢性を達成することを目的としている。
我々は、高い堅牢な精度を達成するために、様々な敵に訓練されたモデルを経験的に分析する。
ATには興味深い副作用がある。それは、彼らの決定に非常に自信の持たないモデルに繋がる。
論文 参考訳(メタデータ) (2022-10-12T06:14:55Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - RobustART: Benchmarking Robustness on Architecture Design and Training
Techniques [170.3297213957074]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
アーキテクチャ設計とトレーニングのテクニックが堅牢性にどのように影響するかに関する包括的な研究はない。
本稿では,ImageNet上での包括性調査ベンチマークを提案する。
論文 参考訳(メタデータ) (2021-09-11T08:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。