論文の概要: Out-of-Distribution Robustness in Deep Learning Compression
- arxiv url: http://arxiv.org/abs/2110.07007v1
- Date: Wed, 13 Oct 2021 19:54:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 13:21:53.761889
- Title: Out-of-Distribution Robustness in Deep Learning Compression
- Title(参考訳): ディープラーニング圧縮における分散のロバスト性
- Authors: Eric Lei, Hamed Hassani, Shirin Saeedi Bidokhti
- Abstract要約: ディープニューラルネットワーク(DNN)圧縮システムは、多くの天然資源のソースコードを設計するのに非常に効果的であることが証明されている。
これらのシステムは、分散シフトの脆弱性や配布外データに悩まされており、現実世界のアプリケーションを減らすことができる。
本稿では,DNN圧縮機を分散ロバスト最適化(DRO)を用いて訓練する手法と,構造化ラテントコードを用いたアルゴリズムおよびアーキテクチャフレームワークを提案する。
- 参考スコア(独自算出の注目度): 28.049124970993056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep neural network (DNN) compression systems have proved to
be highly effective for designing source codes for many natural sources.
However, like many other machine learning systems, these compressors suffer
from vulnerabilities to distribution shifts as well as out-of-distribution
(OOD) data, which reduces their real-world applications. In this paper, we
initiate the study of OOD robust compression. Considering robustness to two
types of ambiguity sets (Wasserstein balls and group shifts), we propose
algorithmic and architectural frameworks built on two principled methods: one
that trains DNN compressors using distributionally-robust optimization (DRO),
and the other which uses a structured latent code. Our results demonstrate that
both methods enforce robustness compared to a standard DNN compressor, and that
using a structured code can be superior to the DRO compressor. We observe
tradeoffs between robustness and distortion and corroborate these findings
theoretically for a specific class of sources.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)圧縮システムは、多くの天然資源のソースコードを設計するのに非常に効果的であることが証明されている。
しかし、他の多くの機械学習システムと同様に、これらの圧縮機は分散シフトの脆弱性と、実際のアプリケーションを減らす分散(ood)データに苦しんでいる。
本稿では,OODロバスト圧縮の研究を開始する。
分散ロバスト最適化(DRO)を用いてDNN圧縮機を訓練する手法と、構造化ラテント符号を用いる手法の2つの原理に基づくアルゴリズム的およびアーキテクチャ的枠組みを,両タイプの曖昧性集合(ワッサースタイン球と群シフト)に対して頑健性を考慮して提案する。
以上の結果から,両手法が標準DNN圧縮機と比較して頑健であり,構造コードを用いることでDRO圧縮機よりも優れた性能が得られることが示された。
強靭性と歪みのトレードオフを観察し,これらの知見を理論的に特定の情報源に対して相関させる。
関連論文リスト
- "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - SRN-SZ: Deep Leaning-Based Scientific Error-bounded Lossy Compression
with Super-resolution Neural Networks [13.706955134941385]
本研究では,SRN-SZを提案する。
SRN-SZはその圧縮に最も高度な超解像ネットワークHATを適用している。
実験では、SRN-SZは最大75%の圧縮比の改善を同じ誤差境界下で達成する。
論文 参考訳(メタデータ) (2023-09-07T22:15:32Z) - Quick Dense Retrievers Consume KALE: Post Training Kullback Leibler
Alignment of Embeddings for Asymmetrical dual encoders [89.29256833403169]
我々は,高密度検索手法の推論効率を高めるための効率的かつ正確な手法であるKulback Leibler Alignment of Embeddings (KALE)を紹介した。
KALEは、バイエンコーダトレーニング後の従来の知識蒸留を拡張し、完全なリトレーニングやインデックス生成なしに効率的なクエリエンコーダ圧縮を可能にする。
KALEと非対称トレーニングを用いることで、3倍高速な推論を持つにもかかわらず、DistilBERTの性能を超えるモデルを生成することができる。
論文 参考訳(メタデータ) (2023-03-31T15:44:13Z) - Do Neural Networks Compress Manifolds Optimally? [22.90338354582811]
人工ニューラルネットワークベース(ANNベース)損失圧縮機は、最近、いくつかのソースで顕著な結果を得た。
現状のANN圧縮機は、特に高速でソースを最適に圧縮できないことを示す。
論文 参考訳(メタデータ) (2022-05-17T17:41:53Z) - EF-BV: A Unified Theory of Error Feedback and Variance Reduction
Mechanisms for Biased and Unbiased Compression in Distributed Optimization [7.691755449724637]
分散最適化と学習では、異なるコンピュータユニット間の通信がボトルネックとなることが多い。
圧縮演算子には2つのクラスがあり、それを利用するアルゴリズムは別々である。
本稿では,特にDIANAとEF21を復元する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-09T10:44:23Z) - Compact CNN Structure Learning by Knowledge Distillation [34.36242082055978]
知識蒸留とカスタマイズ可能なブロックワイズ最適化を活用し、軽量なCNN構造を学習するフレームワークを提案する。
提案手法は,予測精度の向上を図りながら,アートネットワーク圧縮の状態を再現する。
特に,すでにコンパクトなネットワークであるMobileNet_v2では,モデル圧縮が最大2倍,モデル圧縮が5.2倍向上する。
論文 参考訳(メタデータ) (2021-04-19T10:34:22Z) - An Efficient Statistical-based Gradient Compression Technique for
Distributed Training Systems [77.88178159830905]
Sparsity-Inducing Distribution-based Compression (SIDCo) は閾値に基づくスペーシフィケーションスキームであり、DGCと同等のしきい値推定品質を享受する。
SIDCoは,非圧縮ベースライン,Topk,DGC圧縮機と比較して,最大で41:7%,7:6%,1:9%の速度でトレーニングを高速化する。
論文 参考訳(メタデータ) (2021-01-26T13:06:00Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z) - A Better Alternative to Error Feedback for Communication-Efficient
Distributed Learning [0.0]
私たちのアプローチは、メモリ要件の削減、複雑性の保証の改善、仮定の削減など、EFよりも大幅に改善されていることが示されています。
さらに、ノード上の任意の分布に従って、部分的な参加を伴うフェデレーション学習に結果を拡張し、そのメリットを実証する。
論文 参考訳(メタデータ) (2020-06-19T11:24:41Z) - Structured Sparsification with Joint Optimization of Group Convolution
and Channel Shuffle [117.95823660228537]
本稿では,効率的なネットワーク圧縮のための新しい構造空間分割法を提案する。
提案手法は, 畳み込み重みに対する構造的疎度を自動的に誘導する。
また,学習可能なチャネルシャッフル機構によるグループ間通信の問題にも対処する。
論文 参考訳(メタデータ) (2020-02-19T12:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。