論文の概要: Color Universal Design Neural Network for the Color Vision Deficiencies
- arxiv url: http://arxiv.org/abs/2502.08671v1
- Date: Wed, 12 Feb 2025 01:53:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:44:43.893652
- Title: Color Universal Design Neural Network for the Color Vision Deficiencies
- Title(参考訳): カラービジョン障害のためのカラーユニバーサルデザインニューラルネットワーク
- Authors: Sunyong Seo, Jinho Park,
- Abstract要約: CUD-Netと呼ばれるカラーユニバーサルデザインネットワークを提案し、色不足の個人によって視覚的に理解可能な画像を生成する。
CUD-Netは、色を保存し、入力画像の色を区別できる畳み込みディープニューラルネットワークである。
我々のアプローチは、色とコントラストの安定性を維持する高品質なCUD画像を作成することができる。
- 参考スコア(独自算出の注目度): 0.7366405857677227
- License:
- Abstract: Information regarding images should be visually understood by anyone, including those with color deficiency. However, such information is not recognizable if the color that seems to be distorted to the color deficiencies meets an adjacent object. The aim of this paper is to propose a color universal design network, called CUD-Net, that generates images that are visually understandable by individuals with color deficiency. CUD-Net is a convolutional deep neural network that can preserve color and distinguish colors for input images by regressing the node point of a piecewise linear function and using a specific filter for each image. To generate CUD images for color deficiencies, we follow a four-step process. First, we refine the CUD dataset based on specific criteria by color experts. Second, we expand the input image information through pre-processing that is specialized for color deficiency vision. Third, we employ a multi-modality fusion architecture to combine features and process the expanded images. Finally, we propose a conjugate loss function based on the composition of the predicted image through the model to address one-to-many problems that arise from the dataset. Our approach is able to produce high-quality CUD images that maintain color and contrast stability. The code for CUD-Net is available on the GitHub repository
- Abstract(参考訳): 画像に関する情報は、有色人種を含む誰にでも視覚的に理解されるべきである。
しかし、色不足に歪んでいるように見える色が隣接する物体と一致する場合、そのような情報は認識できない。
本研究の目的は,色覚障害者が視覚的に理解できる画像を生成するカラーユニバーサルデザインネットワークであるCUD-Netを提案することである。
CUD-Netは、分割線形関数のノード点を回帰させ、各画像に対して特定のフィルタを使用することで、入力画像の色を保存および区別することができる畳み込みディープニューラルネットワークである。
色不足のためのCUD画像を生成するために、我々は4段階のプロセスに従う。
まず、色の専門家による特定の基準に基づいて、CUDデータセットを精査する。
第2に、色覚障害に特化した前処理により、入力画像情報を拡張する。
第3に,マルチモーダリティ融合アーキテクチャを用いて特徴を結合し,拡張した画像を処理する。
最後に,予測画像の合成に基づく共役損失関数を提案し,データセットから生じる一対多の問題に対処する。
我々のアプローチは、色とコントラストの安定性を維持する高品質なCUD画像を作成することができる。
CUD-NetのコードはGitHubリポジトリから入手できる。
関連論文リスト
- Color-Oriented Redundancy Reduction in Dataset Distillation [35.83163170289415]
本稿では,個々の画像とデータセットの全体レベルでの色冗長性を最小化するフレームワークを提案する。
画像レベルでは、縮小色空間から各ピクセルに動的に色を割り当てるために、専用ニューラルネットワークであるパレットネットワークを用いる。
既存のDD法と比較して,提案した色認識DDの優れた性能を示す総合的な性能評価を行った。
論文 参考訳(メタデータ) (2024-11-18T06:48:11Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - DDColor: Towards Photo-Realistic Image Colorization via Dual Decoders [19.560271615736212]
DDColorは画像カラー化のためのデュアルデコーダを備えたエンドツーエンドの手法である。
我々のアプローチには、ピクセルデコーダとクエリベースのカラーデコーダが含まれる。
我々の2つのデコーダは、色とマルチスケールの意味表現の相関を確立するために協力する。
論文 参考訳(メタデータ) (2022-12-22T11:17:57Z) - Learning to Structure an Image with Few Colors and Beyond [59.34619548026885]
カラー量子化ネットワークであるColorCNNを提案し、分類損失を最小限に抑えて、限られた色空間で画像を構成することを学習する。
複数の色空間サイズ構成をサポートするColorCNN+を導入し、大色空間における認識精度の低下と望ましくない視覚的忠実度に関する過去の問題に対処する。
潜在的な応用として、ネットワーク認識のための画像圧縮手法としてColorCNNが利用可能であることを示す。
論文 参考訳(メタデータ) (2022-08-17T17:59:15Z) - ParaColorizer: Realistic Image Colorization using Parallel Generative
Networks [1.7778609937758327]
グレースケール画像のカラー化は、情報復元のためのAIの魅力的な応用である。
並列なGANベースのカラー化フレームワークを提案する。
マルチモーダル問題を評価するために一般的に使用される非知覚的評価指標の欠点を示す。
論文 参考訳(メタデータ) (2022-08-17T13:49:44Z) - Semantic-driven Colorization [78.88814849391352]
最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
論文 参考訳(メタデータ) (2020-06-13T08:13:30Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。