論文の概要: Paraphrasing Magritte's Observation
- arxiv url: http://arxiv.org/abs/2202.08103v1
- Date: Fri, 11 Feb 2022 00:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-20 16:29:08.014573
- Title: Paraphrasing Magritte's Observation
- Title(参考訳): パラフレージング・マグリットの観察
- Authors: Jesus Malo
- Abstract要約: 本稿では,「Li et al., 2022」で使用される統計学習に適合したオリジナル漫画風画像を生成する手法を提案する。
学術的,非営利的な出版物において,表現(提案手法によって生成された刺激)と現実(実際の対象)との明確な区別は,生成した刺激の使用に関する最終的な問題を回避する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrast Sensitivity of the human visual system can be explained from certain
low-level vision tasks (like retinal noise and optical blur removal), but not
from others (like chromatic adaptation or pure reconstruction after simple
bottlenecks). This conclusion still holds even under substantial change in
stimulus statistics, as for instance considering cartoon-like images as opposed
to natural images (Li et al. Journal of Vision, 2022, Preprint
arXiv:2103.00481).
In this note we present a method to generate original cartoon-like images
compatible with the statistical training used in (Li et al., 2022). Following
the classical observation in (Magritte, 1929), the stimuli generated by the
proposed method certainly are not what they represent: Ceci n'est pas une pipe.
The clear distinction between representation (the stimuli generated by the
proposed method) and reality (the actual object) avoids eventual problems for
the use of the generated stimuli in academic, non-profit, publications.
- Abstract(参考訳): 人間の視覚システムのコントラスト感度は、特定の低レベルの視覚タスク(網膜ノイズや光学ぼかし除去など)から説明できるが、他のタスク(単純なボトルネック後の彩色適応や純粋な再構成など)からは説明できない。
この結論は、自然画像とは対照的にマンガのような画像を考えるなど、刺激統計の実質的な変化にも拘わらず保持されている(li et al. journal of vision, 2022, preprint arxiv:2103.00481)。
本稿では, (li et al., 2022) で使用される統計訓練と互換性のあるオリジナルマンガライク画像を生成する手法を提案する。
マグリット (Magritte, 1929) の古典的な観察の後、提案法によって生成された刺激は、明らかにそれらが表すものではない。
表現(提案手法による刺激)と現実(実際の対象)の明確な区別は、学術的、非営利の出版物において生成された刺激の使用に関する最終的な問題を回避する。
関連論文リスト
- Synthesis and Perceptual Scaling of High Resolution Natural Images Using Stable Diffusion [0.0]
我々は、6つのカテゴリから18個のオブジェクトを持つ写真リアル画像のカスタム刺激セットを開発する。
各オブジェクトに対して、知覚連続体に沿って順序付けられた10のグレードの変種を生成しました。
このイメージセットは、視覚知覚、注意、短期記憶、長期記憶の研究に注目されている。
論文 参考訳(メタデータ) (2024-10-16T20:49:19Z) - It's a Feature, Not a Bug: Measuring Creative Fluidity in Image Generators [5.639451539396458]
本稿は,AIにおける創造的行動の一面を定義し,実証的に測定することを目的として,「素早い解釈の流動性」あるいは単に「流動性」を定量化する実験を行った。
流動性を研究するために,(2)初期「地中真実:イメージ」でシードされた自動生成プロンプトと画像のチェーンを作成すること,(3)既存の視覚的および意味的指標を用いてこれらのチェーンの破壊点を測定すること,(4)統計的検査と視覚的説明の両方を用いてこれらのチェーンを解析し,生成に使用する画像生成装置が顕著な流動性を示すかどうかを判断すること,といった明確な定義を導入する。
論文 参考訳(メタデータ) (2024-06-03T08:31:29Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - On the use of Cortical Magnification and Saccades as Biological Proxies
for Data Augmentation [9.848635287149355]
ほとんどの自己監督的手法は、同じ画像の異なる変換の不変表現を学習するようシステムに促す。
本稿では,これらの強化のリバースエンジニアリングを,生物学的あるいは知覚学的に妥当なものにしようと試みる。
ランダムな収穫は皮質の倍率によって代用でき、画像のササードライクなサンプリングも表現学習に役立てることができる。
論文 参考訳(メタデータ) (2021-12-14T05:38:26Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z) - Toward Quantifying Ambiguities in Artistic Images [21.152039726639426]
本稿では,画像の集合の知覚的あいまいさを測定するためのアプローチを提案する。
観客は、異なる視聴時間の後、画像コンテンツを記述するよう依頼される。
Generative Adversarial Networksで作成した画像を使って実験を行う。
論文 参考訳(メタデータ) (2020-08-21T21:40:16Z) - Visual Chirality [51.685596116645776]
視覚データの統計が反射によってどのように変化するかを検討する。
我々の研究は、データ強化、自己教師付き学習、画像鑑定に影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T20:48:23Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。