論文の概要: Paraphrasing Magritte's Observation
- arxiv url: http://arxiv.org/abs/2202.08103v1
- Date: Fri, 11 Feb 2022 00:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-20 16:29:08.014573
- Title: Paraphrasing Magritte's Observation
- Title(参考訳): パラフレージング・マグリットの観察
- Authors: Jesus Malo
- Abstract要約: 本稿では,「Li et al., 2022」で使用される統計学習に適合したオリジナル漫画風画像を生成する手法を提案する。
学術的,非営利的な出版物において,表現(提案手法によって生成された刺激)と現実(実際の対象)との明確な区別は,生成した刺激の使用に関する最終的な問題を回避する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrast Sensitivity of the human visual system can be explained from certain
low-level vision tasks (like retinal noise and optical blur removal), but not
from others (like chromatic adaptation or pure reconstruction after simple
bottlenecks). This conclusion still holds even under substantial change in
stimulus statistics, as for instance considering cartoon-like images as opposed
to natural images (Li et al. Journal of Vision, 2022, Preprint
arXiv:2103.00481).
In this note we present a method to generate original cartoon-like images
compatible with the statistical training used in (Li et al., 2022). Following
the classical observation in (Magritte, 1929), the stimuli generated by the
proposed method certainly are not what they represent: Ceci n'est pas une pipe.
The clear distinction between representation (the stimuli generated by the
proposed method) and reality (the actual object) avoids eventual problems for
the use of the generated stimuli in academic, non-profit, publications.
- Abstract(参考訳): 人間の視覚システムのコントラスト感度は、特定の低レベルの視覚タスク(網膜ノイズや光学ぼかし除去など)から説明できるが、他のタスク(単純なボトルネック後の彩色適応や純粋な再構成など)からは説明できない。
この結論は、自然画像とは対照的にマンガのような画像を考えるなど、刺激統計の実質的な変化にも拘わらず保持されている(li et al. journal of vision, 2022, preprint arxiv:2103.00481)。
本稿では, (li et al., 2022) で使用される統計訓練と互換性のあるオリジナルマンガライク画像を生成する手法を提案する。
マグリット (Magritte, 1929) の古典的な観察の後、提案法によって生成された刺激は、明らかにそれらが表すものではない。
表現(提案手法による刺激)と現実(実際の対象)の明確な区別は、学術的、非営利の出版物において生成された刺激の使用に関する最終的な問題を回避する。
関連論文リスト
- Unveiling the Truth: Exploring Human Gaze Patterns in Fake Images [34.02058539403381]
我々は、人間の意味的知識を活用して、偽画像検出のフレームワークに含まれる可能性を調べる。
予備的な統計的分析により、人間が本物の画像や変化した画像をどのように知覚するかの特徴的なパターンを探索する。
論文 参考訳(メタデータ) (2024-03-13T19:56:30Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - On the use of Cortical Magnification and Saccades as Biological Proxies
for Data Augmentation [9.848635287149355]
ほとんどの自己監督的手法は、同じ画像の異なる変換の不変表現を学習するようシステムに促す。
本稿では,これらの強化のリバースエンジニアリングを,生物学的あるいは知覚学的に妥当なものにしようと試みる。
ランダムな収穫は皮質の倍率によって代用でき、画像のササードライクなサンプリングも表現学習に役立てることができる。
論文 参考訳(メタデータ) (2021-12-14T05:38:26Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z) - Toward Quantifying Ambiguities in Artistic Images [21.152039726639426]
本稿では,画像の集合の知覚的あいまいさを測定するためのアプローチを提案する。
観客は、異なる視聴時間の後、画像コンテンツを記述するよう依頼される。
Generative Adversarial Networksで作成した画像を使って実験を行う。
論文 参考訳(メタデータ) (2020-08-21T21:40:16Z) - Visual Chirality [51.685596116645776]
視覚データの統計が反射によってどのように変化するかを検討する。
我々の研究は、データ強化、自己教師付き学習、画像鑑定に影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T20:48:23Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。