論文の概要: Computer-Generated Sand Mixtures and Sand-based Images
- arxiv url: http://arxiv.org/abs/2409.04345v1
- Date: Fri, 6 Sep 2024 15:27:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 15:24:36.120962
- Title: Computer-Generated Sand Mixtures and Sand-based Images
- Title(参考訳): コンピュータによるサンドミキサーとサンドベース画像
- Authors: Ryan A. Subong, Alma Jean D. Subong,
- Abstract要約: 本稿では、実際の混合物の撮影画像とコンピュータ生成画像を比較し、混合生成が期待通りに結果を生成するかどうかを検証する。
混合比較の結果、実際の色とコンピュータ生成した色は、全体の色と色が類似していることが示されている。
サンドベース画像とそのソースの比較は、変換中にその内容の本質を維持するソフトウェアの能力を実証している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper aims to verify the effectiveness of the software implementation of the proposed algorithm in creating computer-generated images of sand mixtures using a photograph of sand as an input and its effectiveness in converting digital pictures into sand-based images out of the mixtures it generated. The method of this paper is to visually compare the photographed image of the actual mixtures to its computer-generated counterpart to verify if the mixture generation produces results as expected and compare the computer-generated sand-based images with its source to verify image reproduction maintains same image content. The results of the mixture comparison shows that the actual and the computer-generated ones have similar overall shade and color. Still, the generated one has a rougher texture and higher contrast due to the method of inheriting visual features by pixel, not by individual sand particles. The comparison of the sand-based image and its source has demonstrated the software's ability to maintain the essence of its contents during conversion while replacing its texture with the visual properties of the generated sand mixture. The result have shown that the software implementation of the proposed algorithm can effectively use the images of sand to generate images of its mixtures and use those mixture images to convert a digital picture into a computer-generated sand-based image.
- Abstract(参考訳): 本研究は,砂の写真を入力として,コンピュータで生成した砂の混合画像を作成するためのアルゴリズムのソフトウェア実装の有効性を検証することを目的としている。
本発明の方法は、実際の混合画像とコンピュータ生成画像とを視覚的に比較し、混合生成が期待通りに結果を生成するかどうかを検証し、コンピュータ生成したサンドベース画像とそのソースを比較し、画像再生が同じ画像内容を維持することを検証することである。
混合比較の結果、実際の色とコンピュータ生成した色は、全体の色と色が類似していることが示されている。
それでも、生成したものは、個々の砂粒子ではなく、ピクセルによる視覚的特徴を継承する方法により、より粗いテクスチャとコントラストを有する。
砂をベースとした画像とそのソースの比較は、テクスチャを生成した砂混合物の視覚的特性に置き換えつつ、変換中にその内容の本質を維持できることを示してきた。
その結果,提案アルゴリズムのソフトウェア実装は,砂の画像を効果的に利用して混合画像を生成し,それらの混合画像を用いてデジタル画像をコンピュータで生成した砂ベースの画像に変換することができることがわかった。
関連論文リスト
- T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - A Robust Image Forensic Framework Utilizing Multi-Colorspace Enriched Vision Transformer for Distinguishing Natural and Computer-Generated Images [0.0]
本稿では、リッチな視覚変換器を利用して、自然画像と生成画像の区別を行う頑健な法科学分類手法を提案する。
提案手法は,各クラスの評価において,94.25%の検定精度と有意な性能向上を示す。
この研究は、自然な画像と生成された画像を区別する汎用的でレジリエントなソリューションを提供することにより、画像鑑定の最先端を推し進める。
論文 参考訳(メタデータ) (2023-08-14T17:11:17Z) - MasaCtrl: Tuning-Free Mutual Self-Attention Control for Consistent Image
Synthesis and Editing [54.712205852602736]
MasaCtrlは、一貫した画像生成と複雑な非剛性画像編集を同時に行うためのチューニング不要な手法である。
具体的には、既存の拡散モデルにおける自己アテンションを相互の自己アテンションに変換することで、ソース画像から相関したローカル内容やテクスチャをクエリして一貫性を実現する。
大規模な実験により、提案したMashoCtrlは、一貫性のある画像生成と複雑な非厳密な実画像編集の両方において、印象的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-04-17T17:42:19Z) - SANDFORMER: CNN and Transformer under Gated Fusion for Sand Dust Image
Restoration [4.68978180327837]
畳み込みニューラルネットワーク(CNN)は画像復元に大きく進歩している。
近年のビジョントランスと自己注意は,様々なコンピュータビジョンタスクにおいて有望な成果を上げている。
砂画像復元作業に有効なハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-08T04:12:32Z) - MaskSketch: Unpaired Structure-guided Masked Image Generation [56.88038469743742]
MaskSketchは、サンプリング中の余分な条件信号としてガイドスケッチを使用して生成結果の空間的条件付けを可能にする画像生成方法である。
マスク付き生成変換器の中間自己アテンションマップが入力画像の重要な構造情報を符号化していることを示す。
以上の結果から,MaskSketchは誘導構造に対する高画像リアリズムと忠実性を実現する。
論文 参考訳(メタデータ) (2023-02-10T20:27:02Z) - On the Applicability of Synthetic Data for Re-Identification [1.9634272907216732]
この貢献は、データセット拡張のためのEPALパレットブロックの画像にGAN(Generative Adversarial Networks)を適用する可能性を示している。
1,004個のパレットブロックの画像がCycleGANを用いて生成された。
このシナリオの精度は、合成画像では最大88%、原画像では96%であった。
論文 参考訳(メタデータ) (2022-12-20T09:27:48Z) - Deep Image Compositing [93.75358242750752]
ユーザ入力なしで高品質の画像合成を自動生成する手法を提案する。
ラプラシアン・ピラミッド・ブレンディングにインスパイアされ、フォアグラウンドや背景画像からの情報を効果的に融合させるために、密結合型多ストリーム融合ネットワークが提案されている。
実験により,提案手法は高品質な合成物を自動生成し,定性的かつ定量的に既存手法より優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-11-04T06:12:24Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。