論文の概要: Multi-Scale Architectures Matter: On the Adversarial Robustness of
Flow-based Lossless Compression
- arxiv url: http://arxiv.org/abs/2208.12716v1
- Date: Fri, 26 Aug 2022 15:17:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:35:25.001951
- Title: Multi-Scale Architectures Matter: On the Adversarial Robustness of
Flow-based Lossless Compression
- Title(参考訳): マルチスケールアーキテクチャが重要:フローベースロスレス圧縮の逆ロバスト性について
- Authors: Yi-chong Xia, Bin Chen, Yan Feng, Tian-shuo Ge
- Abstract要約: フローベースモデルは, 優れた確率密度推定と良好な推論速度により, 性能が向上する。
マルチスケールアーキテクチャは、浅い層から出力層へのショートカットを提供する。
マルチスケールアーキテクチャのフローは、コーディングの複雑さと圧縮効率の最良のトレードオフを実現する。
- 参考スコア(独自算出の注目度): 16.109578069331135
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: As a probabilistic modeling technique, the flow-based model has demonstrated
remarkable potential in the field of lossless compression
\cite{idf,idf++,lbb,ivpf,iflow},. Compared with other deep generative models
(eg. Autoregressive, VAEs) \cite{bitswap,hilloc,pixelcnn++,pixelsnail} that
explicitly model the data distribution probabilities, flow-based models perform
better due to their excellent probability density estimation and satisfactory
inference speed. In flow-based models, multi-scale architecture provides a
shortcut from the shallow layer to the output layer, which significantly
reduces the computational complexity and avoid performance degradation when
adding more layers. This is essential for constructing an advanced flow-based
learnable bijective mapping. Furthermore, the lightweight requirement of the
model design in practical compression tasks suggests that flows with
multi-scale architecture achieve the best trade-off between coding complexity
and compression efficiency.
- Abstract(参考訳): 確率論的モデリング手法として、フローベースモデルは損失のない圧縮 \cite{idf,idf++,lbb,ivpf,iflow} の分野で顕著なポテンシャルを示した。
他の深層生成モデル (Autoregressive, VAEs) \cite{bitswap,hilloc,pixelcnn++,pixelsnail} と比較して、フローベースモデルは、優れた確率密度推定と良好な推論速度のために、データ分散確率を明示的にモデル化する。
フローベースモデルにおいて、マルチスケールアーキテクチャは、浅い層から出力層へのショートカットを提供する。
これは、高度なフローベースの学習可能なビジェクティブマッピングを構築するために不可欠である。
さらに, 実用圧縮タスクにおけるモデル設計の軽量要件は, 符号化複雑性と圧縮効率の最良のトレードオフを実現することを示唆している。
関連論文リスト
- Generalized Nested Latent Variable Models for Lossy Coding applied to Wind Turbine Scenarios [14.48369551534582]
学習に基づくアプローチは、圧縮率と再構成された画質の妥協を最小化する。
成功したテクニックは、2レベルネストされた潜伏変数モデル内で機能するディープハイパープライアの導入である。
本稿では,マルコフ連鎖構造を持つ一般化Lレベルネスト生成モデルを設計することによって,この概念を拡張した。
論文 参考訳(メタデータ) (2024-06-10T11:00:26Z) - ECoFLaP: Efficient Coarse-to-Fine Layer-Wise Pruning for Vision-Language
Models [70.45441031021291]
LVLM(Large Vision-Language Models)は、様々なモダリティから豊富な情報を統合することで、世界を包括的に理解することができる。
LVLMは計算/エネルギーの膨大なコストと炭素消費のためにしばしば問題となる。
本稿では,LVLMの2段間粗大な重み付け法であるECoFLaP(Efficient Coarse-to-Fine LayerWise Pruning)を提案する。
論文 参考訳(メタデータ) (2023-10-04T17:34:00Z) - Lifting Architectural Constraints of Injective Flows [7.452460759055847]
正規化フローはトレーニングデータに対して全次元の確率を明示的に最大化する。
単射フローは、多様体とその上の分布を共同で学習することによってこれを解決する。
データ多様体とそれ上の分布の両方を鼻で学習すると、分岐解がもたらされることが示される。
論文 参考訳(メタデータ) (2023-06-02T18:03:03Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Learning Deep-Latent Hierarchies by Stacking Wasserstein Autoencoders [22.54887526392739]
本稿では, 最適輸送に基づくディープラーニング階層を用いたモデル学習手法を提案する。
提案手法は, VAEの「潜伏変数崩壊」問題を回避することで, 生成モデルをその深部潜伏階層を完全に活用することを可能にした。
論文 参考訳(メタデータ) (2020-10-07T15:04:20Z) - Normalizing Flows with Multi-Scale Autoregressive Priors [131.895570212956]
マルチスケール自己回帰前処理(mAR)を通した遅延空間におけるチャネルワイド依存性を導入する。
我々のmARは、分割結合フロー層(mAR-SCF)を持つモデルに先立って、複雑なマルチモーダルデータの依存関係をよりよく捉えます。
我々は,mAR-SCFにより画像生成品質が向上し,FIDとインセプションのスコアは最先端のフローベースモデルと比較して向上したことを示す。
論文 参考訳(メタデータ) (2020-04-08T09:07:11Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Closing the Dequantization Gap: PixelCNN as a Single-Layer Flow [16.41460104376002]
有限体積を変換し、離散データに対する確率の正確な計算を可能にするサブセットフローを導入する。
我々は、WaveNets、PixelCNNs、Transformersを含む通常の離散自己回帰モデルを単層フローとして識別する。
我々は, CIFAR-10 を用いて, 脱量子化を訓練した流れモデルについて, 実測結果を示す。
論文 参考訳(メタデータ) (2020-02-06T22:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。