論文の概要: Collaboration! Towards Robust Neural Methods for Routing Problems
- arxiv url: http://arxiv.org/abs/2410.04968v1
- Date: Mon, 7 Oct 2024 12:12:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 00:57:50.236792
- Title: Collaboration! Towards Robust Neural Methods for Routing Problems
- Title(参考訳): 協調! ルーティング問題に対するロバストなニューラル手法に向けて
- Authors: Jianan Zhou, Yaoxin Wu, Zhiguang Cao, Wen Song, Jie Zhang, Zhiqi Shen,
- Abstract要約: 既存の車両ルーティング問題(VRP)のニューラルネットワークは、深刻な堅牢性の問題に悩まされている。
本稿では, アンサンブルをベースとした協調型ニューラルネットワーク(CNF)について, ニューラルVRP法の防衛について述べる。
ニューラルルータは、モデルのトレーニングインスタンスを十分に分散し、全体的なロードバランシングと協調的有効性を向上させるように設計されている。
- 参考スコア(独自算出の注目度): 27.469338603795073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite enjoying desirable efficiency and reduced reliance on domain expertise, existing neural methods for vehicle routing problems (VRPs) suffer from severe robustness issues -- their performance significantly deteriorates on clean instances with crafted perturbations. To enhance robustness, we propose an ensemble-based Collaborative Neural Framework (CNF) w.r.t. the defense of neural VRP methods, which is crucial yet underexplored in the literature. Given a neural VRP method, we adversarially train multiple models in a collaborative manner to synergistically promote robustness against attacks, while boosting standard generalization on clean instances. A neural router is designed to adeptly distribute training instances among models, enhancing overall load balancing and collaborative efficacy. Extensive experiments verify the effectiveness and versatility of CNF in defending against various attacks across different neural VRP methods. Notably, our approach also achieves impressive out-of-distribution generalization on benchmark instances.
- Abstract(参考訳): 望ましい効率性とドメインの専門知識への依存の低減にもかかわらず、既存の車両ルーティング問題(VRP)のニューラルネットワークは、厳しい堅牢性の問題に悩まされている。
強靭性を高めるために,本論文では重要でない神経VRP法の防衛を目的とした,アンサンブルに基づく協調型ニューラルネットワーク(CNF)を提案する。
ニューラルVRP法により、クリーンなインスタンスの標準的な一般化を向上しつつ、複数のモデルを協調的にトレーニングし、攻撃に対する堅牢性を相乗的に促進する。
ニューラルルータは、モデルのトレーニングインスタンスを十分に分散し、全体的なロードバランシングと協調的有効性を向上させるように設計されている。
広範囲な実験により、CNFが様々な神経性VRPメソッドをまたいで様々な攻撃を防御する効果と汎用性を検証する。
特に,本手法は,ベンチマークインスタンス上での分布外一般化も実現している。
関連論文リスト
- Enhance DNN Adversarial Robustness and Efficiency via Injecting Noise to
Non-Essential Neurons [9.404025805661947]
本稿では,対向的堅牢性と実行効率を同時に向上する効果的な手法を提案する。
均一にノイズを注入することでロバスト性を高める以前の研究とは異なり、一様でないノイズ注入アルゴリズムを導入する。
近似手法を用いることで,本態性ニューロンを同定・保護し,非定常ニューロンにノイズを戦略的に導入する。
論文 参考訳(メタデータ) (2024-02-06T19:09:32Z) - Bi-fidelity Evolutionary Multiobjective Search for Adversarially Robust
Deep Neural Architectures [19.173285459139592]
本稿では,双方向多目的ニューラルアーキテクチャ探索手法を提案する。
低忠実度性能予測器に加えて,高忠実度評価で訓練された代理モデルの出力を補助対象として活用する。
提案手法の有効性は, CIFAR-10, CIFAR-100, SVHNデータセットを用いた広範囲な実験により確認された。
論文 参考訳(メタデータ) (2022-07-12T05:26:09Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - AdvRush: Searching for Adversarially Robust Neural Architectures [17.86463546971522]
本稿では,ニューラルアーキテクチャ探索アルゴリズムAdvRushを提案する。
AdvRushは、よりスムーズな入力損失ランドスケープを持つ候補アーキテクチャを好む正規化器を通じて、対向的に堅牢なニューラルネットワークアーキテクチャの発見に成功した。
論文 参考訳(メタデータ) (2021-08-03T04:27:33Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Improving Adversarial Robustness by Enforcing Local and Global
Compactness [19.8818435601131]
敵の訓練は、広範囲の攻撃に一貫して抵抗する最も成功した方法である。
本稿では,局所的・言語的コンパクト性とクラスタリングの仮定を強制する分散分散化ネットワークを提案する。
実験の結果,提案するコンポーネントによる対人訓練の強化は,ネットワークの堅牢性をさらに向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-10T00:43:06Z) - On sparse connectivity, adversarial robustness, and a novel model of the
artificial neuron [6.09170287691728]
本稿では, ハードウェア要件が低く, 対向性摂動に対して固有の頑健性を有する「強いニューロン」という, 人工ニューロンの新しいモデルを提案する。
SVHN および GTSRB ベンチマークを用いて,本手法の有効性を実証する。
また、強いニューロンを構成するブロックが、敵の攻撃に対して完全な安定性を持つ唯一の活性化機能であることも証明した。
論文 参考訳(メタデータ) (2020-06-16T20:45:08Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。