論文の概要: Automated Robustness with Adversarial Training as a Post-Processing Step
- arxiv url: http://arxiv.org/abs/2109.02532v1
- Date: Mon, 6 Sep 2021 15:17:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 20:00:43.065938
- Title: Automated Robustness with Adversarial Training as a Post-Processing Step
- Title(参考訳): 処理後ステップとしての敵対的トレーニングによるロバストネスの自動化
- Authors: Ambrish Rawat, Mathieu Sinn, Beat Buesser
- Abstract要約: この研究は、堅牢なディープラーニングモデルを得るための単純なポストプロセッシングステップの有効性を探求する。
我々は,ニューラルネットワーク探索アルゴリズムから得られる最適化ネットワークアーキテクチャの処理後ステップとして,逆トレーニングを採用する。
- 参考スコア(独自算出の注目度): 5.55549775099824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial training is a computationally expensive task and hence searching
for neural network architectures with robustness as the criterion can be
challenging. As a step towards practical automation, this work explores the
efficacy of a simple post processing step in yielding robust deep learning
model. To achieve this, we adopt adversarial training as a post-processing step
for optimised network architectures obtained from a neural architecture search
algorithm. Specific policies are adopted for tuning the hyperparameters of the
different steps, resulting in a fully automated pipeline for generating
adversarially robust deep learning models. We evidence the usefulness of the
proposed pipeline with extensive experimentation across 11 image classification
and 9 text classification tasks.
- Abstract(参考訳): 敵対的トレーニングは計算コストの高いタスクであり、基準として頑健なニューラルネットワークアーキテクチャを探索することは困難である。
本研究は,実践的自動化に向けたステップとして,堅牢なディープラーニングモデルを実現するための単純なポストプロセッシングステップの有効性を検討する。
これを実現するために、ニューラルネットワーク探索アルゴリズムから得られる最適化ネットワークアーキテクチャの処理後ステップとして、逆トレーニングを採用する。
異なるステップのハイパーパラメータをチューニングするために、特定のポリシが採用されているため、対向的に堅牢なディープラーニングモデルを生成するための、完全に自動化されたパイプラインが実現される。
提案するパイプラインの有用性を実証し,11の画像分類と9のテキスト分類タスクにわたる広範な実験を行った。
関連論文リスト
- A Survey on Neural Architecture Search Based on Reinforcement Learning [0.0]
本稿では,ニューラルアーキテクチャサーチの全体開発を紹介する。
次に、ニューラルネットワーク検索に関する総合的かつ理解可能な調査を提供することに重点を置いています。
論文 参考訳(メタデータ) (2024-09-26T17:28:10Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - FootstepNet: an Efficient Actor-Critic Method for Fast On-line Bipedal Footstep Planning and Forecasting [0.0]
本研究では,障害物のある環境下を移動するための効率的なフットステップ計画法を提案する。
また,地域目標の異なる候補に到達するのに必要なステップ数を素早く推定できる予測手法を提案する。
本研究は,RoboCup 2023コンペティションにおいて,シミュレーション結果と,子供サイズのヒューマノイドロボットへの展開によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-19T09:48:18Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Automatic Block-wise Pruning with Auxiliary Gating Structures for Deep
Convolutional Neural Networks [9.293334856614628]
本稿では,補助ゲーティング構造を有する新しいネットワーク切断法を提案する。
実験により,本手法は分類タスクの最先端圧縮性能を実現することができることを示した。
論文 参考訳(メタデータ) (2022-05-07T09:03:32Z) - Divide & Conquer Imitation Learning [75.31752559017978]
模倣学習は学習プロセスをブートストラップするための強力なアプローチである。
本稿では,専門的軌道の状態から複雑なロボットタスクを模倣する新しいアルゴリズムを提案する。
提案手法は,非ホロノミックナビゲーションタスクを模倣し,非常に高いサンプル効率で複雑なロボット操作タスクにスケールすることを示す。
論文 参考訳(メタデータ) (2022-04-15T09:56:50Z) - CHASE: Robust Visual Tracking via Cell-Level Differentiable Neural
Architecture Search [14.702573109803307]
トラッキングモジュールのネットワーク設計を自動化する新しいセルレベル微分可能なアーキテクチャ探索機構を提案する。
提案手法は単純で効率的であり、ネットワークを構築するために一連のモジュールを積み重ねる必要がない。
我々の手法は既存のトラッカーに組み込むことが簡単であり、異なるアーキテクチャ検索手法と追跡対象を用いて実証的に検証されている。
論文 参考訳(メタデータ) (2021-07-02T15:16:45Z) - Automated Evolutionary Approach for the Design of Composite Machine
Learning Pipelines [48.7576911714538]
提案手法は、複合機械学習パイプラインの設計を自動化することを目的としている。
パイプラインをカスタマイズ可能なグラフベースの構造で設計し、得られた結果を分析して再生する。
このアプローチのソフトウェア実装は、オープンソースフレームワークとして紹介されている。
論文 参考訳(メタデータ) (2021-06-26T23:19:06Z) - Learning to Stop While Learning to Predict [85.7136203122784]
多くのアルゴリズムにインスパイアされたディープモデルは全ての入力に対して固定深度に制限される。
アルゴリズムと同様に、深いアーキテクチャの最適深さは、異なる入力インスタンスに対して異なるかもしれない。
本稿では, ステアブルアーキテクチャを用いて, この様々な深さ問題に対処する。
学習した深層モデルと停止ポリシーにより,多様なタスクセットのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-06-09T07:22:01Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。