論文の概要: Robustness Verification for Transformers
- arxiv url: http://arxiv.org/abs/2002.06622v2
- Date: Wed, 23 Dec 2020 12:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 17:39:12.946744
- Title: Robustness Verification for Transformers
- Title(参考訳): 変圧器のロバスト性検証
- Authors: Zhouxing Shi, Huan Zhang, Kai-Wei Chang, Minlie Huang, Cho-Jui Hsieh
- Abstract要約: 我々はトランスフォーマーのための最初のロバスト性検証アルゴリズムを開発した。
提案手法で計算したロバスト性境界は, 素粒子間境界伝播法で計算したロバスト性境界よりもかなり厳密である。
これらの境界はまた、感情分析における異なる単語の重要性を常に反映しているトランスフォーマーの解釈にも光を当てている。
- 参考スコア(独自算出の注目度): 165.25112192811764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness verification that aims to formally certify the prediction behavior
of neural networks has become an important tool for understanding model
behavior and obtaining safety guarantees. However, previous methods can usually
only handle neural networks with relatively simple architectures. In this
paper, we consider the robustness verification problem for Transformers.
Transformers have complex self-attention layers that pose many challenges for
verification, including cross-nonlinearity and cross-position dependency, which
have not been discussed in previous works. We resolve these challenges and
develop the first robustness verification algorithm for Transformers. The
certified robustness bounds computed by our method are significantly tighter
than those by naive Interval Bound Propagation. These bounds also shed light on
interpreting Transformers as they consistently reflect the importance of
different words in sentiment analysis.
- Abstract(参考訳): ニューラルネットワークの予測動作を正式に証明することを目的としたロバスト性検証は,モデルの動作を理解し,安全性を保証する上で重要なツールとなっている。
しかし、従来の手法は通常、比較的単純なアーキテクチャでニューラルネットワークのみを扱うことができる。
本稿では,トランスフォーマーのロバスト性検証問題について考察する。
トランスフォーマは複雑な自己着脱層を持ち、非線型性やクロスポジション依存性など検証の多くの課題を提起している。
これらの課題を解決し、トランスフォーマのロバスト性検証アルゴリズムを開発した。
本手法で計算したロバスト性境界は, ナイーブ間隔境界伝播法よりもかなり厳密である。
これらの境界は、感情分析における異なる単語の重要性を一貫して反映するため、トランスフォーマーの解釈にも光を当てた。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - GSmooth: Certified Robustness against Semantic Transformations via
Generalized Randomized Smoothing [40.38555458216436]
一般的な意味変換に対する堅牢性を証明するための統一的な理論的枠組みを提案する。
GSmoothフレームワークでは,画像と画像の代理ネットワークを用いて複雑な変換を近似するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-09T07:12:17Z) - XAI for Transformers: Better Explanations through Conservative
Propagation [60.67748036747221]
変換器の勾配は局所的にのみ関数を反映しており、入力特徴の予測への寄与を確実に識別できないことを示す。
我々の提案は、よく確立されたLPP法のトランスフォーマーへの適切な拡張と見なすことができる。
論文 参考訳(メタデータ) (2022-02-15T10:47:11Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Translational Equivariance in Kernelizable Attention [3.236198583140341]
本稿では,カーネル可能な注意に基づく効率的なトランスフォーマにおいて,翻訳等価性を実現する方法を示す。
実験では,提案手法が入力画像のシフトに対する演奏者のロバスト性を大幅に改善することを強調する。
論文 参考訳(メタデータ) (2021-02-15T17:14:15Z) - Toward Transformer-Based Object Detection [12.704056181392415]
ビジョントランスフォーマーは、共通の検出タスクヘッドによってバックボーンとして使用することができ、競合するCOCO結果を生成する。
vit-frcnnは、大きな事前訓練能力と高速微調整性能を含むトランスフォーマーに関連するいくつかの既知の特性を示す。
ViT-FRCNNは、オブジェクト検出などの複雑な視覚タスクの純粋なトランスフォーマーソリューションへの重要なステップストーンであると考えています。
論文 参考訳(メタデータ) (2020-12-17T22:33:14Z) - Masked Language Modeling for Proteins via Linearly Scalable Long-Context
Transformers [42.93754828584075]
我々は、高速注意Via Orthogonal Random機能(FAVOR)に基づく新しいトランスフォーマーアーキテクチャPerformerを提案する。
我々の機構は、列内のトークンの数で2次ではなく2次的にスケールし、四次空間の複雑さが特徴であり、スパーシティパターンの先行を含まない。
これは強い理論的保証を与える:注意行列の偏りのない推定と一様収束である。
論文 参考訳(メタデータ) (2020-06-05T17:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。