論文の概要: EasyRobust: A Comprehensive and Easy-to-use Toolkit for Robust and Generalized Vision
- arxiv url: http://arxiv.org/abs/2503.16975v1
- Date: Fri, 21 Mar 2025 09:43:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 15:40:10.358165
- Title: EasyRobust: A Comprehensive and Easy-to-use Toolkit for Robust and Generalized Vision
- Title(参考訳): EasyRobust:ロバストと一般化ビジョンのための包括的で使いやすいツールキット
- Authors: Xiaofeng Mao, Yuefeng Chen, Rong Zhang, Hui Xue, Zhao Li, Hang Su,
- Abstract要約: 敵攻撃とデータ分散シフトは、マシン性能を低下させる2つの主要なシナリオとして知られてきた。
我々は,堅牢な視覚モデルのトレーニング,評価,分析を行うための総合的で使いやすいツールキットであるEasyRobustを開発した。
- 参考スコア(独自算出の注目度): 31.398663108822834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) has shown great promise in computer vision tasks. However, machine vision achieved by DNNs cannot be as robust as human perception. Adversarial attacks and data distribution shifts have been known as two major scenarios which degrade machine performance and obstacle the wide deployment of machines "in the wild". In order to break these obstructions and facilitate the research of model robustness, we develop EasyRobust, a comprehensive and easy-to-use toolkit for training, evaluation and analysis of robust vision models. EasyRobust targets at two types of robustness: 1) Adversarial robustness enables the model to defense against malicious inputs crafted by worst-case perturbations, also known as adversarial examples; 2) Non-adversarial robustness enhances the model performance on natural test images with corruptions or distribution shifts. Thorough benchmarks on image classification enable EasyRobust to provide an accurate robustness evaluation on vision models. We wish our EasyRobust can help for training practically-robust models and promote academic and industrial progress in closing the gap between human and machine vision. Codes and models of EasyRobust have been open-sourced in https://github.com/alibaba/easyrobust.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、コンピュータビジョンタスクにおいて大きな可能性を秘めている。
しかし、DNNが達成したマシンビジョンは人間の知覚ほど堅牢ではない。
敵攻撃とデータ分散シフトは、マシンのパフォーマンスを低下させ、"野生"のマシンの広範な展開を妨げる2つの主要なシナリオとして知られていた。
これらの障害を解消し、モデルロバスト性の研究を容易にするため、我々は、ロバストな視覚モデルの訓練、評価、分析のための包括的で使いやすいツールキットであるEasyRobustを開発した。
EasyRobustのターゲットは2種類ある。
1) 逆境の堅牢性により、最悪の場合の摂動(逆境の例としても知られる)によって作られた悪意のある入力に対して、モデルが防御することができる。
2)非対向ロバスト性は, 汚損や分布シフトを伴う自然検定画像のモデル性能を向上させる。
画像分類に関する詳細なベンチマークにより、EasyRobustは視覚モデルに対して正確なロバスト性評価を提供することができる。
我々のEasyRobustは、人間と機械の視界のギャップを埋める上で、実用的なロバストモデルを訓練し、学術的および産業的な進歩を促進するのに役立ちたい。
EasyRobustのコードとモデルはhttps://github.com/alibaba/easyrobust.comでオープンソース化されている。
関連論文リスト
- Leveraging Generalizability of Image-to-Image Translation for Enhanced Adversarial Defense [2.441856543314551]
敵対的攻撃は、機械学習モデルの重大な脆弱性を浮き彫りにする。
本研究では,残差ブロックを組み込んで一般化性を高める改良モデルを提案する。
実験の結果,分類精度は0付近から平均72%に復元できることがわかった。
論文 参考訳(メタデータ) (2025-04-02T06:38:28Z) - Robust-LLaVA: On the Effectiveness of Large-Scale Robust Image Encoders for Multi-modal Large Language Models [26.656858396343726]
MLLM(Multi-modal Large Language Models)は、視覚言語タスクにおいて優れているが、視覚的逆境の摂動に弱いままである。
既存の手法では、ImageNet-scaleデータ上でCLIPビジョンエンコーダに制約付き逆調整を適用することにより、これらのリスクを軽減する方法が提案されている。
本稿では,大規模データに対して逆向きに事前学習された既存の視覚分類モデルを活用する方法を提案する。
論文 参考訳(メタデータ) (2025-02-03T17:59:45Z) - In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [104.94706600050557]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - ABNet: Attention BarrierNet for Safe and Scalable Robot Learning [58.4951884593569]
バリアベースの手法は、安全なロボット学習における主要なアプローチの1つである。
本稿では,より大規模な基本安全モデルを段階的に構築するスケーラブルなAttention BarrierNet(ABNet)を提案する。
2次元ロボット障害物回避、安全なロボット操作、視覚に基づくエンドツーエンド自動運転におけるABNetの強みを実証する。
論文 参考訳(メタデータ) (2024-06-18T19:37:44Z) - Harmonic Machine Learning Models are Robust [3.263224198355111]
我々は、任意の機械学習モデルの堅牢性をテストするための強力で直感的な方法であるハーモニックロバストネスを紹介する。
これは高調波平均値特性からの関数的偏差に基づいており、不安定性と説明可能性の欠如を示している。
論文 参考訳(メタデータ) (2024-04-29T16:07:36Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - Robust Models are less Over-Confident [10.42820615166362]
敵の訓練(AT)は、このような攻撃に対して堅牢性を達成することを目的としている。
我々は、高い堅牢な精度を達成するために、様々な敵に訓練されたモデルを経験的に分析する。
ATには興味深い副作用がある。それは、彼らの決定に非常に自信の持たないモデルに繋がる。
論文 参考訳(メタデータ) (2022-10-12T06:14:55Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - RobustART: Benchmarking Robustness on Architecture Design and Training
Techniques [170.3297213957074]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
アーキテクチャ設計とトレーニングのテクニックが堅牢性にどのように影響するかに関する包括的な研究はない。
本稿では,ImageNet上での包括性調査ベンチマークを提案する。
論文 参考訳(メタデータ) (2021-09-11T08:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。