論文の概要: The Iconicity of the Generated Image
- arxiv url: http://arxiv.org/abs/2509.16473v1
- Date: Fri, 19 Sep 2025 23:59:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.809279
- Title: The Iconicity of the Generated Image
- Title(参考訳): 生成画像の不連続性
- Authors: Nanne van Noord, Noa Garcia,
- Abstract要約: 人間がどのようにイメージを解釈し、生成するかは、私たちが露出した画像の影響を受けます。
ビジュアル生成AIモデルは、多くのトレーニングイメージに公開され、これに基づいて新しいイメージを生成することを学ぶ。
- 参考スコア(独自算出の注目度): 22.154465616964256
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: How humans interpret and produce images is influenced by the images we have been exposed to. Similarly, visual generative AI models are exposed to many training images and learn to generate new images based on this. Given the importance of iconic images in human visual communication, as they are widely seen, reproduced, and used as inspiration, we may expect that they may similarly have a proportionally large influence within the generative AI process. In this work we explore this question through a three-part analysis, involving data attribution, semantic similarity analysis, and a user-study. Our findings indicate that iconic images do not have an obvious influence on the generative process, and that for many icons it is challenging to reproduce an image which resembles it closely. This highlights an important difference in how humans and visual generative AI models draw on and learn from prior visual communication.
- Abstract(参考訳): 人間がどのようにイメージを解釈し、生成するかは、私たちが露出した画像の影響を受けます。
同様に、視覚生成AIモデルは、多くのトレーニングイメージに公開され、これに基づいて新しい画像を生成することを学ぶ。
人間の視覚コミュニケーションにおける象徴的イメージの重要性を考えると、それらが広く見られ、再生され、インスピレーションとして使用されるため、同様に、生成AIプロセスに比例して大きな影響を与える可能性がある。
本研究では、データ属性、意味的類似性分析、ユーザスタディを含む3部分析を通して、この問題を考察する。
以上の結果から, 図形画像は生成過程に明らかな影響を与えず, 多くの図形に対して, 近縁な画像の再現が困難であることが示唆された。
これは、人間と視覚生成AIモデルがどのように引き起こされ、以前の視覚コミュニケーションから学習するかにおいて重要な違いを浮き彫りにする。
関連論文リスト
- Simulated Cortical Magnification Supports Self-Supervised Object Learning [8.07351541700131]
近年の自己教師型学習モデルでは,幼児と同様の視覚的体験を訓練することで,意味オブジェクト表現の発達をシミュレートしている。
本稿では,オブジェクト表現の発達において,この様々な解決法が果たす役割について考察する。
論文 参考訳(メタデータ) (2025-09-19T08:28:06Z) - Modeling Visual Memorability Assessment with Autoencoders Reveals Characteristics of Memorable Images [2.4861619769660637]
画像記憶可能性(英: Image memorability)とは、ある画像が他の画像よりも記憶されやすい現象である。
人間の視覚知覚と記憶の理解の進歩にもかかわらず、画像の記憶可能性にどのような特徴が寄与するかは明らかになっていない。
我々は、VGG16畳み込みニューラルネットワーク(CNN)上に構築されたオートエンコーダベースのアプローチを用いて、画像の潜在表現を学習する。
論文 参考訳(メタデータ) (2024-10-19T22:58:33Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Unveiling the Truth: Exploring Human Gaze Patterns in Fake Images [34.02058539403381]
我々は、人間の意味的知識を活用して、偽画像検出のフレームワークに含まれる可能性を調べる。
予備的な統計的分析により、人間が本物の画像や変化した画像をどのように知覚するかの特徴的なパターンを探索する。
論文 参考訳(メタデータ) (2024-03-13T19:56:30Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - AffectGAN: Affect-Based Generative Art Driven by Semantics [2.323282558557423]
本稿では,特定の感情状態を表す芸術的画像を生成する新しい手法を提案する。
我々のAffectGANモデルは、特定の意味的プロンプトや意図された感情的結果に基づいて画像を生成することができる。
AffectGANによって生成された32の画像の小さなデータセットは、50人の参加者によって、彼らが引き起こす特定の感情と、その品質と新規性の観点から注釈付けされている。
論文 参考訳(メタデータ) (2021-09-30T04:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。