論文の概要: Generative models for visualising abstract social processes: Guiding
streetview image synthesis of StyleGAN2 with indices of deprivation
- arxiv url: http://arxiv.org/abs/2312.00570v1
- Date: Fri, 1 Dec 2023 13:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 14:45:31.953731
- Title: Generative models for visualising abstract social processes: Guiding
streetview image synthesis of StyleGAN2 with indices of deprivation
- Title(参考訳): 抽象的社会過程の可視化のための生成モデル:切り離し指標を用いたStyleGAN2のストリートビュー画像合成
- Authors: Aleksi Knuutila
- Abstract要約: 本稿では,社会プロセスの視覚的側面を研究するために,GAN(Generative Adverserial Networks)の新たな応用法を提案する。
ロンドンで撮影されたGoogle Streetviewから得られた14,564の画像のカスタムデータセットで、StyleGAN2-modelをトレーニングします。
写真が撮られた地域では、各データポイントを、収入、健康、環境のクオリティを記述した、多重削除指標のメタデータと結びつけます。
これにより、モデルの潜伏空間のどの部分が、健康、収入、環境品質に特有の視覚的特徴をコードし、それらに基づいて新しい画像の合成を条件付けることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel application of Generative Adverserial Networks
(GANs) to study visual aspects of social processes. I train a a StyleGAN2-model
on a custom dataset of 14,564 images of London, sourced from Google Streetview
taken in London. After training, I invert the images in the training set,
finding points in the model's latent space that correspond to them, and compare
results from three inversion techniques. I connect each data point with
metadata from the Indices of Multiple Deprivation, describing income, health
and environmental quality in the area where the photographs were taken. It is
then possible to map which parts of the model's latent space encode visual
features that are distinctive for health, income and environmental quality, and
condition the synthesis of new images based on these factors. The synthetic
images created reflect visual features of social processes that were previously
unknown and difficult to study, describing recurring visual differences between
deprived and privileged areas in London. GANs are known for their capability to
produce a continuous range of images that exhibit visual differences. The paper
tests how to exploit this ability through visual comparisons in still images as
well as through an interactive website where users can guide image synthesis
with sliders. Though conditioned synthesis has its limitations and the results
are difficult to validate, the paper points to the potential for generative
models to be repurposed to be parts of social scientific methods.
- Abstract(参考訳): 本稿では,社会プロセスの視覚的側面を研究するために,GAN(Generative Adverserial Networks)の新たな応用を提案する。
私は、ロンドンでgoogle streetviewが撮影したカスタムデータセット14,564枚のstylegan2モデルをトレーニングしました。
トレーニング後、トレーニングセット内のイメージを反転させ、それらに対応するモデルの潜在空間内の点を見つけ、3つの反転技術による結果を比較する。
各データポイントに複数の不足指標からのメタデータを接続し、写真が撮影された地域の収入、健康、および環境の質を記述します。
これにより、モデルの潜伏空間のどの部分が、健康、収入、環境品質に特有の視覚的特徴を符号化し、これらの要因に基づいて新しい画像の合成を条件付けることができる。
合成画像は、それまで未知で研究が困難であった社会過程の視覚的特徴を反映し、ロンドンの失明地域と特権地区の視覚的差異を再現している。
GANは、視覚的な違いを示す連続した範囲の画像を生成する能力で知られている。
本稿では,静止画の視覚的比較や,スライダを用いた画像合成をガイドするインタラクティブなWebサイトを通じて,この能力をいかに活用するかを検証する。
条件付き合成には限界があり、結果は検証が難しいが、この論文は生成モデルが社会科学的手法の一部として再利用される可能性を示している。
関連論文リスト
- Bird's-Eye View to Street-View: A Survey [16.90516098120805]
衛星画像からストリートビュー画像がどのように合成されるのかを概観するため、20の最近の研究論文をレビューした。
主な発見は, (i) より現実的で正確なストリートビュー画像の合成に新しいディープラーニング技術が必要であること, (ii) 公共利用のためにより多くのデータセットを収集する必要があること, (iii) 生成された画像を適切に評価するためには,より具体的な評価指標を検討する必要があること,である。
論文 参考訳(メタデータ) (2024-05-14T21:01:12Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Unveiling the Truth: Exploring Human Gaze Patterns in Fake Images [34.02058539403381]
我々は、人間の意味的知識を活用して、偽画像検出のフレームワークに含まれる可能性を調べる。
予備的な統計的分析により、人間が本物の画像や変化した画像をどのように知覚するかの特徴的なパターンを探索する。
論文 参考訳(メタデータ) (2024-03-13T19:56:30Z) - Cross-view Self-localization from Synthesized Scene-graphs [1.9580473532948401]
クロスビューの自己ローカライゼーションは、スパース視点からデータベースイメージを提供する視覚的場所認識の難解なシナリオである。
生画像から計算したビュー不変外観特徴と合成画像から計算したビュー依存空間意味特徴の利点を組み合わせたハイブリッドシーンモデルを提案する。
論文 参考訳(メタデータ) (2023-10-24T04:16:27Z) - ReShader: View-Dependent Highlights for Single Image View-Synthesis [5.736642774848791]
本稿では,ビュー合成過程を画素再構成と再配置の2つの独立したタスクに分割することを提案する。
再構成の過程では,1枚の画像を入力とし,新しいカメラに基づいてシェーディングを調整する。
そして、この再構成画像を既存のビュー合成法の入力として使用し、画素を移動させ、最終的な新規なビュー画像を生成する。
論文 参考訳(メタデータ) (2023-09-19T15:23:52Z) - Spritz-PS: Validation of Synthetic Face Images Using a Large Dataset of
Printed Documents [23.388645531702597]
我々は、VIPPrint PrintedおよびScanned face imageから得られた多数の合成および天然のIRISからなる新しいデータセットを提供する。
データセットのIRIS画像の評価にかかわる問題点を明らかにするために,シメセニューラルネットワークを用いた多数の解析を行った。
論文 参考訳(メタデータ) (2023-04-06T10:28:34Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Advances in Neural Rendering [115.05042097988768]
本稿では,古典的レンダリングと学習された3Dシーン表現を組み合わせた手法について述べる。
これらの手法の重要な利点は、これらが3D一貫性を持ち、キャプチャされたシーンの新たな視点のようなアプリケーションを可能にすることである。
静的なシーンを扱う方法に加えて、非厳密な変形オブジェクトをモデル化するためのニューラルシーン表現についても取り上げる。
論文 参考訳(メタデータ) (2021-11-10T18:57:01Z) - Learned Spatial Representations for Few-shot Talking-Head Synthesis [68.3787368024951]
複数発話頭合成のための新しいアプローチを提案する。
この異方性表現は,従来の手法よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2021-04-29T17:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。