論文の概要: MXR-U-Nets for Real Time Hyperspectral Reconstruction
- arxiv url: http://arxiv.org/abs/2004.07003v1
- Date: Wed, 15 Apr 2020 11:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 04:06:58.266536
- Title: MXR-U-Nets for Real Time Hyperspectral Reconstruction
- Title(参考訳): リアルタイムハイパースペクトル再構成のためのMXR-U-Nets
- Authors: Atmadeep Banerjee, Akash Palrecha
- Abstract要約: CNNは画像生成、超解像度、スタイル転送の応用に多大な貢献をしている。
本稿では,RGB画像から高スペクトル画像を正確に再構成するCNNアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.2538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent times, CNNs have made significant contributions to applications in
image generation, super-resolution and style transfer. In this paper, we build
upon the work of Howard and Gugger, He et al. and Misra, D. and propose a CNN
architecture that accurately reconstructs hyperspectral images from their RGB
counterparts. We also propose a much shallower version of our best model with a
10% relative memory footprint and 3x faster inference, thus enabling real-time
video applications while still experiencing only about a 0.5% decrease in
performance.
- Abstract(参考訳): 近年、CNNは画像生成、超解像度、スタイル転送の応用に多大な貢献をしている。
本稿では,Howard and Gugger,He et al.,Misra,D.の業績に基づいて,RGBの高スペクトル像を正確に再構成するCNNアーキテクチャを提案する。
また,10%の相対メモリフットプリントと3倍の高速化を実現した最良モデルのより浅いバージョンを提案する。
関連論文リスト
- REDUCIO! Generating 1024$\times$1024 Video within 16 Seconds using Extremely Compressed Motion Latents [110.41795676048835]
大規模アプリケーションにとって重要な障害のひとつは、高価なトレーニングと推論コストである。
本稿では,ビデオには画像よりもはるかに冗長な情報が含まれており,非常に少ない動きの潜伏者によってエンコード可能であることを論じる。
我々は、合計3.2Kのトレーニング時間でReduceio-DiTをトレーニングし、1つのA100 GPUで15.5秒以内に16フレームの1024*1024ビデオクリップを生成する。
論文 参考訳(メタデータ) (2024-11-20T18:59:52Z) - Snap Video: Scaled Spatiotemporal Transformers for Text-to-Video
Synthesis [69.83405335645305]
映像生成領域に画像モデルの進化をもたらすことによって、動きの忠実度、視覚的品質、スケーラビリティを損なうことが議論されている。
この作業では、これらの課題に体系的に対処するビデオファーストモデルであるSnap Videoを構築します。
画像生成の背後にあるワークホースであるU-Netは、ビデオ生成時に低スケールであり、計算オーバーヘッドがかなり必要であることを示す。
これにより、初めて数十億のパラメータを持つテキスト・ビデオモデルを効率的にトレーニングし、多数のベンチマークで最先端の結果に到達し、はるかに高い品質、時間的一貫性、動きの複雑さの動画を生成することができる。
論文 参考訳(メタデータ) (2024-02-22T18:55:08Z) - CNNs for JPEGs: A Study in Computational Cost [45.74830585715129]
畳み込みニューラルネットワーク(CNN)は過去10年間で驚くべき進歩を遂げてきた。
CNNはRGBピクセルから直接データの堅牢な表現を学習することができる。
近年,圧縮領域から直接学習できる深層学習手法が注目されている。
論文 参考訳(メタデータ) (2023-09-20T15:49:38Z) - Rapid-INR: Storage Efficient CPU-free DNN Training Using Implicit Neural Representation [7.539498729072623]
Implicit Neural Representation (INR) は、複雑な形状や物体を、その形状や表面構造を明確に定義せずに表現するための革新的なアプローチである。
従来の研究では、画像圧縮のINRとしてニューラルネットワークを使用することの有効性が実証されており、JPEGのような従来の手法に匹敵する性能を示している。
本稿では、画像のエンコーディングと圧縮にINRを利用する新しいアプローチであるRapid-INRを紹介し、コンピュータビジョンタスクにおけるニューラルネットワークトレーニングを高速化する。
論文 参考訳(メタデータ) (2023-06-29T05:49:07Z) - Real-time 6K Image Rescaling with Rate-distortion Optimization [53.61374658914277]
リアルタイム6Kレート歪み認識画像再スケーリングのための新しいフレームワークを提案する。
我々のフレームワークは、HR画像をエンコーダによってJPEG LRサムネイルに埋め込む。
そして、効率的な周波数認識復号器は、LR1から高忠実度HR画像をリアルタイムに再構成する。
論文 参考訳(メタデータ) (2023-04-03T15:21:56Z) - Real-Time Neural Light Field on Mobile Devices [54.44982318758239]
低レイテンシで小さなサイズでモバイルデバイス上で効率的に動作する新しいネットワークアーキテクチャを導入する。
本モデルでは,合成シーンと実世界のシーンの両方において,リアルタイムな推論を維持しながら高分解能な生成を実現する。
論文 参考訳(メタデータ) (2022-12-15T18:58:56Z) - MeMViT: Memory-Augmented Multiscale Vision Transformer for Efficient
Long-Term Video Recognition [74.35009770905968]
既存のモデルに比べて30倍の時間的サポートを持つメモリ拡張型視覚変換器を構築した。
MeMViTは、AVA、EPIC-Kitchens-100アクション分類、アクション予測データセットの最先端結果を取得する。
論文 参考訳(メタデータ) (2022-01-20T18:59:54Z) - CNNs for JPEGs: A Study in Computational Cost [49.97673761305336]
畳み込みニューラルネットワーク(CNN)は過去10年間で驚くべき進歩を遂げてきた。
CNNはRGBピクセルから直接データの堅牢な表現を学習することができる。
近年,圧縮領域から直接学習できる深層学習手法が注目されている。
論文 参考訳(メタデータ) (2020-12-26T15:00:10Z) - Towards Fast and Light-Weight Restoration of Dark Images [26.779714419544085]
我々は,CPU上でも3秒の球場で,2848 x 4256,極暗の単一イメージをフル解像度で拡張できることを実証した。
2~7倍のモデルパラメータ,2~3倍のメモリ使用率,5~20倍のスピードアップで実現しています。
論文 参考訳(メタデータ) (2020-11-28T13:53:50Z) - DC-UNet: Rethinking the U-Net Architecture with Dual Channel Efficient
CNN for Medical Images Segmentation [0.0]
我々は、このCNNに基づいて、新しい効果的なCNNアーキテクチャを作成し、DC-UNetを構築した。
厳密なケースを持つ3つのデータセットでモデルを評価した結果、それぞれ2.90%、1.49%、1.42%のパフォーマンスが相対的に向上した。
論文 参考訳(メタデータ) (2020-05-31T02:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。