論文の概要: Efficient Halftoning via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2304.12152v2
- Date: Fri, 13 Oct 2023 03:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 01:46:14.442671
- Title: Efficient Halftoning via Deep Reinforcement Learning
- Title(参考訳): 深層強化学習による効率的ハーフトンニング
- Authors: Haitian Jiang, Dongliang Xiong, Xiaowen Jiang, Li Ding, Liang Chen,
Kai Huang
- Abstract要約: ハーフトニングは、2つの離散レベルに制限された画素で連続トーン画像を再現することを目的としている。
データ駆動方式による高速かつ構造を考慮したハーフトニング手法を提案する。
実験の結果,従来の構造認識手法よりも15倍高速な軽量CNNを効果的にトレーニングできることがわかった。
- 参考スコア(独自算出の注目度): 13.300716873418061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Halftoning aims to reproduce a continuous-tone image with pixels whose
intensities are constrained to two discrete levels. This technique has been
deployed on every printer, and the majority of them adopt fast methods (e.g.,
ordered dithering, error diffusion) that fail to render structural details,
which determine halftone's quality. Other prior methods of pursuing visual
pleasure by searching for the optimal halftone solution, on the contrary,
suffer from their high computational cost. In this paper, we propose a fast and
structure-aware halftoning method via a data-driven approach. Specifically, we
formulate halftoning as a reinforcement learning problem, in which each binary
pixel's value is regarded as an action chosen by a virtual agent with a shared
fully convolutional neural network (CNN) policy. In the offline phase, an
effective gradient estimator is utilized to train the agents in producing
high-quality halftones in one action step. Then, halftones can be generated
online by one fast CNN inference. Besides, we propose a novel anisotropy
suppressing loss function, which brings the desirable blue-noise property.
Finally, we find that optimizing SSIM could result in holes in flat areas,
which can be avoided by weighting the metric with the contone's contrast map.
Experiments show that our framework can effectively train a light-weight CNN,
which is 15x faster than previous structure-aware methods, to generate
blue-noise halftones with satisfactory visual quality. We also present a
prototype of deep multitoning to demonstrate the extensibility of our method.
- Abstract(参考訳): ハーフトニングは、2つの離散レベルに制限された画素で連続トーン画像を再現することを目的としている。
この技術はすべてのプリンタに実装されており、その大半は高速な方法(例えば、順序付きディザリング、エラー拡散)を採用しており、構造的な詳細をレンダリングできず、ハーフトンの品質を決定する。
反対に、最適なハーフトーン解を探索することで視覚的快楽を追求する他の以前の方法は、高い計算コストに苦しむ。
本稿では,データ駆動アプローチによる高速で構造に配慮したハーフトンニング手法を提案する。
具体的には、各バイナリピクセルの値が共有完全畳み込みニューラルネットワーク(CNN)ポリシを持つ仮想エージェントによって選択されたアクションとみなされる強化学習問題としてハーフトニングを定式化する。
オフライン段階では、有効勾配推定器を用いて、1つの作用ステップで高品質なハーフトンを生産するエージェントを訓練する。
すると、半音は1つの高速CNN推論によってオンラインで生成できる。
また, 損失関数を抑制する新しい異方性を提案し, 所望の青色ノイズ特性をもたらす。
最後に、SSIMの最適化は平坦な領域に穴を開ける可能性があり、コントーンのコントラストマップで計量を重み付けすることで避けることができる。
実験により,従来の構造認識手法の15倍高速である軽量cnnを効果的に訓練し,良好な視覚品質を有する青色半音を生成することができた。
また,本手法の拡張性を示すために,deep multitoningのプロトタイプを提案する。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - RL-based Stateful Neural Adaptive Sampling and Denoising for Real-Time
Path Tracing [1.534667887016089]
モンテカルロ経路追跡は、現実的な画像合成の強力な手法であるが、低いサンプル数での高レベルのノイズに悩まされている。
本稿では,サンプリング重要度ネットワーク,遅延空間エンコーダネットワーク,デノイザネットワークをエンドツーエンドでトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-05T12:39:27Z) - Self-Reference Deep Adaptive Curve Estimation for Low-Light Image
Enhancement [7.253235412867934]
自己参照深部適応曲線推定(Self-DACE)と呼ばれる2段階低照度画像強調手法を提案する。
最初の段階では、直感的で、軽量で、高速で、教師なしの輝度向上アルゴリズムを提示する。
また,自然画像の色,構造,忠実度を保存するために,物理モデルを単純化した新たな損失関数を提案する。
論文 参考訳(メタデータ) (2023-08-16T07:57:35Z) - Deep Richardson-Lucy Deconvolution for Low-Light Image Deblurring [48.80983873199214]
我々は,飽和画素を学習潜時マップでモデル化するデータ駆動型手法を開発した。
新しいモデルに基づいて、非盲検除色タスクを最大後部(MAP)問題に定式化することができる。
増幅されたアーティファクトを使わずに高品質な劣化画像を推定するために,我々は事前推定ネットワークを構築した。
論文 参考訳(メタデータ) (2023-08-10T12:53:30Z) - Taming Reversible Halftoning via Predictive Luminance [23.70396198330424]
そこで本研究では,カラー画像を2進半音に変換するハーフトニング手法を提案する。
我々の新しいハーフトン技術は、2つの畳み込みニューラルネットワーク(CNN)から構成され、可逆的なハーフトンパターンを生成する。
提案手法では, ブルーノイズの品質と復元精度の相違に対処するため, 予測器組込み手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T07:27:06Z) - Halftoning with Multi-Agent Deep Reinforcement Learning [12.761919963695313]
本稿では,HALFTONERSと呼ばれるマルチエージェント深部強化学習に基づくハーフトニング手法を提案する。
実験により, ハーフトン法は比較的高速に維持しながら高品質なハーフトンを生成することがわかった。
論文 参考訳(メタデータ) (2022-07-23T04:16:03Z) - RISP: Rendering-Invariant State Predictor with Differentiable Simulation
and Rendering for Cross-Domain Parameter Estimation [110.4255414234771]
既存のソリューションでは、大量のトレーニングデータが必要か、未知のレンダリング設定への一般化性が欠如している。
本稿では、ドメインのランダム化と微分可能なレンダリング勾配を併用してこの問題に対処する手法を提案する。
提案手法は, 再構成誤差を大幅に低減し, 未知のレンダリング構成間の一般化性が向上する。
論文 参考訳(メタデータ) (2022-05-11T17:59:51Z) - Error-Correcting Neural Networks for Semi-Lagrangian Advection in the
Level-Set Method [0.0]
本稿では,画像超解像技術とスカラートランスポートを融合した機械学習フレームワークを提案する。
我々は,インターフェースの粗いメッシュ進化における数値粘度を最小化するために,オンザフライデータ駆動補正を計算できるかどうかを検討する。
論文 参考訳(メタデータ) (2021-10-22T06:36:15Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - Learning Spatial and Spatio-Temporal Pixel Aggregations for Image and
Video Denoising [104.59305271099967]
ピクセル集計ネットワークを提示し、画像デノイジングのためのピクセルサンプリングと平均戦略を学びます。
時間空間にまたがるサンプル画素をビデオデノナイズするための画素集約ネットワークを開発した。
本手法は,動的シーンにおける大きな動きに起因する誤認問題を解決することができる。
論文 参考訳(メタデータ) (2021-01-26T13:00:46Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。