論文の概要: A Mixed Quantization Network for Computationally Efficient Mobile
Inverse Tone Mapping
- arxiv url: http://arxiv.org/abs/2203.06504v1
- Date: Sat, 12 Mar 2022 19:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 16:09:45.075027
- Title: A Mixed Quantization Network for Computationally Efficient Mobile
Inverse Tone Mapping
- Title(参考訳): 計算効率の良い逆トーンマッピングのための混合量子化ネットワーク
- Authors: Juan Borrego-Carazo, Mete Ozay, Frederik Laboyrie, Paul Wisbey
- Abstract要約: 深層ニューラルネットワークの効率的な演算と新しい混合量子化手法を組み合わせることで、高性能だが計算効率の良い混合量子化ネットワーク(MQN)を構築することを提案する。
MQNはレイテンシを最大10倍改善し、メモリ消費を25倍改善する。
- 参考スコア(独自算出の注目度): 8.277567852741242
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recovering a high dynamic range (HDR) image from a single low dynamic range
(LDR) image, namely inverse tone mapping (ITM), is challenging due to the lack
of information in over- and under-exposed regions. Current methods focus
exclusively on training high-performing but computationally inefficient ITM
models, which in turn hinder deployment of the ITM models in
resource-constrained environments with limited computing power such as edge and
mobile device applications.
To this end, we propose combining efficient operations of deep neural
networks with a novel mixed quantization scheme to construct a well-performing
but computationally efficient mixed quantization network (MQN) which can
perform single image ITM on mobile platforms. In the ablation studies, we
explore the effect of using different attention mechanisms, quantization
schemes, and loss functions on the performance of MQN in ITM tasks. In the
comparative analyses, ITM models trained using MQN perform on par with the
state-of-the-art methods on benchmark datasets. MQN models provide up to 10
times improvement on latency and 25 times improvement on memory consumption.
- Abstract(参考訳): 高ダイナミックレンジ (HDR) 画像を単一低ダイナミックレンジ (LDR) 画像,すなわち逆トーンマッピング (ITM) から復元することは、過度の領域と過度の領域の情報不足により困難である。
現在の方法は、高性能だが計算効率の悪いitmモデルのトレーニングに特化しており、エッジやモバイルデバイスアプリケーションのような限られた計算能力を持つリソース制約環境におけるitmモデルのデプロイを妨げている。
そこで本稿では,モバイルプラットフォーム上でシングルイメージIMMを実現するための,高性能だが計算効率のよい混合量子化ネットワーク(MQN)を構築するために,ディープニューラルネットワークの効率的な操作と新しい混合量子化スキームを組み合わせることを提案する。
アブレーション研究では,IMMタスクにおけるMQNの性能に及ぼす異なる注意機構,量子化スキーム,損失関数の使用の影響について検討する。
比較分析では、MQNを使用してトレーニングされたIMMモデルは、ベンチマークデータセットの最先端メソッドと同等に機能する。
MQNモデルはレイテンシを最大10倍改善し、メモリ消費を25倍改善する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Reservoir computing for system identification and predictive control with limited data [3.1484174280822845]
我々は、ベンチマーク制御システムの力学を学習し、モデル予測制御(MPC)の代理モデルとして機能するRNN変種の評価を行う。
エコー状態ネットワーク(ESN)は、計算複雑性の低減、より有効な予測時間、MPC目的関数のコスト削減など、競合するアーキテクチャよりも様々な利点がある。
論文 参考訳(メタデータ) (2024-10-23T21:59:07Z) - Up-sampling-only and Adaptive Mesh-based GNN for Simulating Physical Systems [7.384641647468888]
本稿では,UA-MGNと呼ばれる新しい階層型メッシュグラフネットワークを開発し,効率的な機械シミュレーションを行う。
2つの合成データセットと1つの実データセットの評価は、UA-MGNの優位性を示している。
論文 参考訳(メタデータ) (2024-09-07T07:09:58Z) - Full-Stack Optimization for CAM-Only DNN Inference [2.0837295518447934]
本稿では,3次重み付けニューラルネットワークと連想プロセッサのアルゴリズム最適化の組み合わせについて検討する。
演算強度を低減し,APの畳み込みを最適化する新しいコンパイルフローを提案する。
本研究では,イメージネット上でのResNet-18推論のエネルギー効率を,クロスバーメモリアクセラレータと比較して7.5倍向上させる。
論文 参考訳(メタデータ) (2024-01-23T10:27:38Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - MixPHM: Redundancy-Aware Parameter-Efficient Tuning for Low-Resource
Visual Question Answering [66.05768870785548]
微調整事前学習型視覚言語モデル(VLM)は、視覚質問応答(VQA)における最先端性能を達成するための一般的なパラダイムである。
現在のパラメータ効率のチューニング手法は、チューニング可能なパラメータの数を劇的に削減するが、完全な微調整を伴う大きなパフォーマンスギャップは依然として残っている。
低リソースVQAにおける完全微調整よりも優れた冗長性を考慮したパラメータ効率調整法であるMixPHMを提案する。
論文 参考訳(メタデータ) (2023-03-02T13:28:50Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Compressing LSTM Networks by Matrix Product Operators [7.395226141345625]
Long Short Term Memory(LSTM)モデルは、多くの最先端自然言語処理(NLP)と音声強調(SE)アルゴリズムの構築ブロックである。
ここでは、量子多体物理学における量子状態の局所的相関を記述するMPO分解を紹介する。
LSTMモデルを置き換えるために,行列積演算子(MPO)に基づくニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-22T11:50:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。