論文の概要: Self-Supervised Continuous Colormap Recovery from a 2D Scalar Field Visualization without a Legend
- arxiv url: http://arxiv.org/abs/2507.20632v1
- Date: Mon, 28 Jul 2025 08:46:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.059181
- Title: Self-Supervised Continuous Colormap Recovery from a 2D Scalar Field Visualization without a Legend
- Title(参考訳): 伝説のない2次元スカラーフィールド可視化による自己監督型連続カラーマップの復元
- Authors: Hongxu Liu, Xinyu Chen, Haoyang Zheng, Manyi Li, Zhenfan Liu, Fumeng Yang, Yunhai Wang, Changhe Tu, Qiong Zeng,
- Abstract要約: カラー符号化された2次元スカラー場可視化からカラーマップを抽出する新しいカラーマップ復元手法を提案する。
提案手法では,まず色マップとデータに分離し,色分け可能な色マッピングモジュールを用いて視覚化を再構築する。
提案手法は,VIS30Kデータセットからの合成データセットと実世界の可視化の収集に基づいて定量的に定性的に評価する。
- 参考スコア(独自算出の注目度): 27.73667830126674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering a continuous colormap from a single 2D scalar field visualization can be quite challenging, especially in the absence of a corresponding color legend. In this paper, we propose a novel colormap recovery approach that extracts the colormap from a color-encoded 2D scalar field visualization by simultaneously predicting the colormap and underlying data using a decoupling-and-reconstruction strategy. Our approach first separates the input visualization into colormap and data using a decoupling module, then reconstructs the visualization with a differentiable color-mapping module. To guide this process, we design a reconstruction loss between the input and reconstructed visualizations, which serves both as a constraint to ensure strong correlation between colormap and data during training, and as a self-supervised optimizer for fine-tuning the predicted colormap of unseen visualizations during inferencing. To ensure smoothness and correct color ordering in the extracted colormap, we introduce a compact colormap representation using cubic B-spline curves and an associated color order loss. We evaluate our method quantitatively and qualitatively on a synthetic dataset and a collection of real-world visualizations from the VIS30K dataset. Additionally, we demonstrate its utility in two prototype applications -- colormap adjustment and colormap transfer -- and explore its generalization to visualizations with color legends and ones encoded using discrete color palettes.
- Abstract(参考訳): 単一の2次元スカラーフィールドの可視化から連続したカラーマップを復元することは、特に対応する色伝説が欠如している場合、非常に困難である。
本稿では,カラーマップと基盤データとをデカップリング・アンド・リコンストラクション戦略を用いて同時に予測することにより,カラーマップをカラー符号化した2次元スカラーフィールドの可視化から抽出する新しいカラーマップ復元手法を提案する。
提案手法では,まず色マップとデータに分離し,色分け可能な色マッピングモジュールを用いて視覚化を再構築する。
このプロセスの指針として、トレーニング中のカラーマップとデータとの強い相関性を確保するための制約として機能する入力と再構成された視覚化の間の再構成損失を設計し、推論中に見知らぬ視覚化のカラーマップを微調整するための自己監督オプティマイザとして機能する。
抽出したカラーマップのスムーズさと色順の正しさを確保するために,立方体Bスプライン曲線と関連する色順損失を用いたコンパクトなカラーマップ表現を導入する。
提案手法は,VIS30Kデータセットからの合成データセットと実世界の可視化の収集に基づいて定量的に定性的に評価する。
さらに、カラーマップ調整とカラーマップ転送という2つのプロトタイプアプリケーションでその実用性を実証し、色伝説と離散色パレットを用いて符号化した視覚化への一般化を探求する。
関連論文リスト
- Leveraging the Powerful Attention of a Pre-trained Diffusion Model for Exemplar-based Image Colorization [4.233370898095789]
Exemplar-based image colorizationは、基準色画像を用いてグレースケールイメージを彩色することを目的としている。
本稿では,事前学習した拡散モデルに基づく,新しい微調整不要な手法を提案する。
実験の結果,提案手法は画像の画質と忠実度において既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-05-21T17:59:40Z) - MagicColor: Multi-Instance Sketch Colorization [44.72374445094054]
MagicColorは、マルチインスタンススケッチのカラー化のための拡散ベースのフレームワークである。
本モデルでは,手作業による調整を一切行わず,カラー化プロセスの自動化を重要視する。
論文 参考訳(メタデータ) (2025-03-21T08:53:14Z) - ColorFlow: Retrieval-Augmented Image Sequence Colorization [65.93834649502898]
産業用途における画像シーケンスのカラー化に適した3段階拡散に基づくフレームワークを提案する。
IDごとの微調整や明示的なID埋め込み抽出を必要とする既存の手法とは異なり、我々は新たにRetrieval Augmented Colorization Pipelineを提案する。
パイプラインには、カラーアイデンティティ抽出のためのブランチと、カラー化のためのブランチという、デュアルブランチ設計も備えています。
論文 参考訳(メタデータ) (2024-12-16T14:32:49Z) - Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - MultiColor: Image Colorization by Learning from Multiple Color Spaces [4.738828630428634]
MultiColorは、グレースケールイメージを自動的にカラー化する学習ベースの新しいアプローチである。
我々は、個々の色空間に専用の着色モジュール群を用いる。
これらの予測色チャネルは様々な色空間を表すため、相補的なネットワークは相補性を生かし、優雅で合理的な色付き画像を生成するように設計されている。
論文 参考訳(メタデータ) (2024-08-08T02:34:41Z) - Learning Inclusion Matching for Animation Paint Bucket Colorization [76.4507878427755]
ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
論文 参考訳(メタデータ) (2024-03-27T08:32:48Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - SCGAN: Saliency Map-guided Colorization with Generative Adversarial
Network [16.906813829260553]
本稿では,SCGAN(Generative Adversarial Network)フレームワークによる完全自動サリエンシマップ誘導色付けを提案する。
これは、意味的混乱と色出血を最小限に抑えるために、着色と塩分濃度マップを共同で予測する。
実験結果から,SCGANは最先端技術よりも,より合理的なカラー化画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2020-11-23T13:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。