論文の概要: Incorporating Ensemble and Transfer Learning For An End-To-End
Auto-Colorized Image Detection Model
- arxiv url: http://arxiv.org/abs/2309.14478v1
- Date: Mon, 25 Sep 2023 19:22:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 16:04:58.841322
- Title: Incorporating Ensemble and Transfer Learning For An End-To-End
Auto-Colorized Image Detection Model
- Title(参考訳): エンサンブルとトランスファー学習を組み込んだ自動色付き画像検出モデル
- Authors: Ahmed Samir Ragab, Shereen Aly Taie, Howida Youssry Abdelnaby
- Abstract要約: 本稿では,移動学習とアンサンブル学習の利点を組み合わせた新たな手法を提案する。
提案したモデルは、94.55%から99.13%の精度で有望な結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image colorization is the process of colorizing grayscale images or
recoloring an already-color image. This image manipulation can be used for
grayscale satellite, medical and historical images making them more expressive.
With the help of the increasing computation power of deep learning techniques,
the colorization algorithms results are becoming more realistic in such a way
that human eyes cannot differentiate between natural and colorized images.
However, this poses a potential security concern, as forged or illegally
manipulated images can be used illegally. There is a growing need for effective
detection methods to distinguish between natural color and computer-colorized
images. This paper presents a novel approach that combines the advantages of
transfer and ensemble learning approaches to help reduce training time and
resource requirements while proposing a model to classify natural color and
computer-colorized images. The proposed model uses pre-trained branches VGG16
and Resnet50, along with Mobile Net v2 or Efficientnet feature vectors. The
proposed model showed promising results, with accuracy ranging from 94.55% to
99.13% and very low Half Total Error Rate values. The proposed model
outperformed existing state-of-the-art models regarding classification
performance and generalization capabilities.
- Abstract(参考訳): イメージカラー化(英: image colorization)は、グレースケールのイメージを着色したり、既にカラーのイメージを塗り替えたりするプロセスである。
この画像操作は、グレースケールの衛星、医療、歴史的画像に使用することができ、より表現力がある。
深層学習技術の計算能力の増大により、人間の目が自然画像と着色画像とを区別できないように、色分けアルゴリズムの結果はより現実的なものになりつつある。
しかし、偽造または違法に操作された画像は違法に使用できるため、これは潜在的なセキュリティ上の懸念をもたらす。
自然色とコンピュータカラー画像の識別に有効な検出方法の必要性が高まっている。
本稿では,自然色とコンピュータ彩色画像を分類するモデルを提案しながら,学習時間と資源要求を削減するために,転送学習とアンサンブル学習の利点を組み合わせた新しいアプローチを提案する。
提案モデルは、事前訓練された分岐 vgg16 と resnet50 とモバイルネット v2 または efficientnet feature vector を使用する。
提案したモデルでは,94.55%から99.13%,半誤差率が非常に低い精度で有望な結果を示した。
提案モデルは分類性能と一般化能力に関する既存の最先端モデルよりも優れていた。
関連論文リスト
- Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Improved Diffusion-based Image Colorization via Piggybacked Models [19.807766482434563]
既存の強力なT2I拡散モデルに基づく色付けモデルを提案する。
拡散誘導器は、潜伏拡散モデルの事前訓練された重みを組み込むように設計されている。
次に、輝度認識VQVAEは、所定のグレースケール画像に画素完全アライメントされた色付き結果を生成する。
論文 参考訳(メタデータ) (2023-04-21T16:23:24Z) - Exemplar-Based Image Colorization with A Learning Framework [7.793461393970992]
学習フレームワークを用いた自動着色手法を提案する。
カラー化過程と学習過程を分離し、同一のグレー画像に対して様々なカラースタイルを生成する。
最先端のカラー化アルゴリズムに匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-09-13T07:15:25Z) - Neural Color Operators for Sequential Image Retouching [62.99812889713773]
本稿では,新たに導入したトレーニング可能なニューラルカラー演算子のシーケンスとして,リタッチ処理をモデル化して,新しい画像リタッチ手法を提案する。
ニューラルカラー演算子は、従来のカラー演算子の振舞いを模倣し、その強度をスカラーで制御しながらピクセルワイズな色変換を学習する。
定量的な測定と視覚的品質の両面で,SOTA法と比較して常に最良の結果が得られている。
論文 参考訳(メタデータ) (2022-07-17T05:33:19Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Astronomical Image Colorization and upscaling with Generative
Adversarial Networks [0.0]
本研究の目的は、非常に特定の画像領域、すなわち天文学的な画像に焦点をあてることにより、この問題に自動的アプローチを提供することである。
我々は、RGBとL*a*bという2つの異なる色空間における様々なモデルの使用について検討する。
このモデルは、画像に存在しない高解像度で色付けされたデータを幻覚させる視覚的に魅力的な画像を生成する。
論文 参考訳(メタデータ) (2021-12-27T19:01:20Z) - Structure-Preserving Multi-Domain Stain Color Augmentation using
Style-Transfer with Disentangled Representations [0.9051352746190446]
HistAuGANは、様々な現実的な組織学の染色色をシミュレートできるため、トレーニング中にニューラルネットワークの染色が不変になる。
画像から画像への変換のためのGAN(generative adversarial network)に基づいて,画像の内容,すなわち形態的組織構造を染色色属性から切り離す。
複数のドメインでトレーニングすることができるため、スライド作成および撮像プロセスで導入された他のドメイン固有のバリエーションと同様に、異なる染色色をカバーできることを学ぶことができる。
論文 参考訳(メタデータ) (2021-07-26T17:52:39Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。