論文の概要: GIFnets: Differentiable GIF Encoding Framework
- arxiv url: http://arxiv.org/abs/2006.13434v1
- Date: Wed, 24 Jun 2020 02:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 13:17:07.650852
- Title: GIFnets: Differentiable GIF Encoding Framework
- Title(参考訳): GIFnets:異なるGIFエンコーディングフレームワーク
- Authors: Innfarn Yoo and Xiyang Luo and Yilin Wang and Feng Yang and Peyman
Milanfar
- Abstract要約: 本稿では,3つの新しいニューラルネットワークを含むGIF符号化パイプラインについて紹介する。
PaletteNet、DitherNet、BandingNetはGIFエンコーディングパイプライン内で重要な機能を提供する。
ユーザスタディでは,Floyd-SteinbergベースのGIFエンコーディングよりもアルゴリズムが優れていることが示された。
- 参考スコア(独自算出の注目度): 31.012646999905442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphics Interchange Format (GIF) is a widely used image file format. Due to
the limited number of palette colors, GIF encoding often introduces color
banding artifacts. Traditionally, dithering is applied to reduce color banding,
but introducing dotted-pattern artifacts. To reduce artifacts and provide a
better and more efficient GIF encoding, we introduce a differentiable GIF
encoding pipeline, which includes three novel neural networks: PaletteNet,
DitherNet, and BandingNet. Each of these three networks provides an important
functionality within the GIF encoding pipeline. PaletteNet predicts a
near-optimal color palette given an input image. DitherNet manipulates the
input image to reduce color banding artifacts and provides an alternative to
traditional dithering. Finally, BandingNet is designed to detect color banding,
and provides a new perceptual loss specifically for GIF images. As far as we
know, this is the first fully differentiable GIF encoding pipeline based on
deep neural networks and compatible with existing GIF decoders. User study
shows that our algorithm is better than Floyd-Steinberg based GIF encoding.
- Abstract(参考訳): Graphics Interchange Format (GIF)は広く使われている画像ファイルフォーマットである。
パレット色が限られているため、GIFエンコーディングはしばしばカラーバンドアーティファクトを導入している。
伝統的に、ディザリングはカラーバンドリングを減らすために適用されるが、ドットパターンアーティファクトを導入する。
アーティファクトの削減とgifエンコーディングの効率化のために,palettenet,dithernet,bandingnetの3つの新たなニューラルネットワークを含む,差別化可能なgifエンコーディングパイプラインを導入する。
これら3つのネットワークはそれぞれ、GIFエンコーディングパイプライン内で重要な機能を提供する。
PaletteNetは入力画像が与えられた最適に近い色パレットを予測する。
DitherNetは入力画像を操作してカラーバンドのアーティファクトを減らし、従来のディザリングに代わるものを提供する。
最後に、BandingNetはカラーバンディングを検出するように設計されており、GIF画像に特有な新たな知覚損失を提供する。
われわれが知る限り、これはディープニューラルネットワークに基づく、初めての完全に微分可能なgifエンコーディングパイプラインであり、既存のgifデコーダと互換性がある。
ユーザスタディでは、Floyd-SteinbergベースのGIFエンコーディングよりもアルゴリズムが優れていることが示されている。
関連論文リスト
- FDCE-Net: Underwater Image Enhancement with Embedding Frequency and Dual Color Encoder [49.79611204954311]
水中画像は、低明度、色の変化、ぼやけた詳細、吸光光によるノイズ、水や懸濁粒子による散乱などの様々な問題に悩まされることが多い。
従来の水中画像強調法(UIE)は主に空間領域の強調に焦点を当てており、画像固有の周波数領域情報を無視している。
論文 参考訳(メタデータ) (2024-04-27T15:16:34Z) - Color Image Denoising Using The Green Channel Prior [5.117362801192093]
グリーンチャネル先行(GCP)は、しばしば色画像のデノイングにおいて過小評価されるか無視される。
本稿では,GCP-ID(GCP-ID)法を提案する。
論文 参考訳(メタデータ) (2024-02-13T05:57:37Z) - T-former: An Efficient Transformer for Image Inpainting [50.43302925662507]
トランスフォーマーと呼ばれる注目に基づくネットワークアーキテクチャのクラスは、自然言語処理の分野で大きなパフォーマンスを示している。
本稿では,Taylorの展開に応じて,解像度に線形に関連付けられた新たな注意を設計し,この注意に基づいて,画像インペイントのためのネットワークである$T$-formerを設計する。
いくつかのベンチマークデータセットの実験により,提案手法は比較的少ないパラメータ数と計算複雑性を維持しつつ,最先端の精度を達成できることが示されている。
論文 参考訳(メタデータ) (2023-05-12T04:10:42Z) - SVCNet: Scribble-based Video Colorization Network with Temporal
Aggregation [19.566913227894997]
SVCNetは、異なるユーザ生成カラースクリブルに基づいてモノクロビデオをカラー化することができる。
カラー化の鮮明さ、時間的一貫性、色出血という、スクリブルベースのビデオカラー化領域における3つの一般的な問題に対処する。
実験の結果,SVCNetは高画質かつ時間的に一貫したビデオを生成することがわかった。
論文 参考訳(メタデータ) (2023-03-21T04:42:39Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - UIEC^2-Net: CNN-based Underwater Image Enhancement Using Two Color Space [9.318613337883097]
本稿では,rgbの画素レベルブロック,水中画像の輝度,色,彩度をグローバルに調整するhsvグローバル調整ブロック,およびrgbとhsvの出力画像の長所を各画素に分散して結合するアテンションマップブロックの3つのブロックからなるエンドツーエンドトレーニング可能なネットワークを提案する。
合成および実世界の水中画像に対する実験結果から,提案手法の主観的比較と客観的評価の両方において良好な性能を示した。
論文 参考訳(メタデータ) (2021-03-12T08:23:21Z) - Deep Video Inpainting Detection [95.36819088529622]
映像インペインティング検出は、映像内のインペイント領域を空間的および時間的にローカライズする。
VIDNet, Video Inpainting Detection Networkは、注意モジュールを備えた2ストリームエンコーダデコーダアーキテクチャを含む。
論文 参考訳(メタデータ) (2021-01-26T20:53:49Z) - Animated GIF optimization by adaptive color local table management [0.0]
提案手法は局所色表選択と色再現に基づく。
この技術は、知覚された色質を損なうことなく、バイト削減の観点で良好な結果が得られる。
論文 参考訳(メタデータ) (2020-07-09T11:36:48Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。