論文の概要: Illusions in Humans and AI: How Visual Perception Aligns and Diverges
- arxiv url: http://arxiv.org/abs/2508.12422v1
- Date: Sun, 17 Aug 2025 16:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.760927
- Title: Illusions in Humans and AI: How Visual Perception Aligns and Diverges
- Title(参考訳): 人間とAIにおけるIllusions:視覚的知覚の相違と多様性
- Authors: Jianyi Yang, Junyi Ye, Ankan Dash, Guiling Wang,
- Abstract要約: 生体と人工の知覚を錯覚のレンズを通して比較することにより、それぞれのシステムが視覚的現実を構築する方法について、重要な違いを浮き彫りにする。
視覚錯覚は、人間の知覚が生の知覚データではなく、文脈的な仮定に基づいていることを示す。
この記事では、色、サイズ、形状、動きを含む古典的な視覚錯覚に対するAIの反応について説明する。
- 参考スコア(独自算出の注目度): 14.661957041103404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By comparing biological and artificial perception through the lens of illusions, we highlight critical differences in how each system constructs visual reality. Understanding these divergences can inform the development of more robust, interpretable, and human-aligned artificial intelligence (AI) vision systems. In particular, visual illusions expose how human perception is based on contextual assumptions rather than raw sensory data. As artificial vision systems increasingly perform human-like tasks, it is important to ask: does AI experience illusions, too? Does it have unique illusions? This article explores how AI responds to classic visual illusions that involve color, size, shape, and motion. We find that some illusion-like effects can emerge in these models, either through targeted training or as by-products of pattern recognition. In contrast, we also identify illusions unique to AI, such as pixel-level sensitivity and hallucinations, that lack human counterparts. By systematically comparing human and AI responses to visual illusions, we uncover alignment gaps and AI-specific perceptual vulnerabilities invisible to human perception. These findings provide insights for future research on vision systems that preserve human-beneficial perceptual biases while avoiding distortions that undermine trust and safety.
- Abstract(参考訳): 生体と人工の知覚を錯覚のレンズを通して比較することにより、それぞれのシステムが視覚的現実を構築する方法について、重要な違いを浮き彫りにする。
これらの違いを理解することは、より堅牢で、解釈可能で、人間に沿った人工知能(AI)ビジョンシステムの開発を知らせることができる。
特に視覚的な錯覚は、人間の知覚が生の知覚データではなく、文脈的な仮定に基づいていることを示している。
人工視覚システムが人間のようなタスクをますます実行するようになるにつれ、AIは錯覚を経験しているか?
ユニークな錯覚がありますか。
この記事では、色、サイズ、形状、動きを含む古典的な視覚錯覚に対するAIの反応について説明する。
これらのモデルには、ターゲットトレーニングまたはパターン認識の副産物として、錯覚のような効果が現れる可能性がある。
対照的に、ピクセルレベルの感度や幻覚など、AI特有の錯覚も認識しています。
視覚錯覚に対する人間とAIの反応を体系的に比較することにより、人間の知覚に見えないアライメントギャップとAI固有の知覚的脆弱性を明らかにする。
これらの知見は、人間の便益的知覚バイアスを保ちながら、信頼と安全を損なう歪みを避けた視覚システムに関する将来の研究の洞察を与えるものである。
関連論文リスト
- Adopting a human developmental visual diet yields robust, shape-based AI vision [0.0]
長年の研究にもかかわらず、人工知能(AI)システムと人間の視覚の重大な相違が続いている。
私たちは、人間の視覚が幼少期から成人期へどのように発達するかからインスピレーションを受けます。
我々は、この人間にインスパイアされたカリキュラムを通してAIシステムを導くことは、人間の行動と密接に一致したモデルを生み出すことを示す。
論文 参考訳(メタデータ) (2025-07-03T20:52:08Z) - Do Large Vision-Language Models Distinguish between the Actual and Apparent Features of Illusions? [12.157632635072435]
人間は視覚錯覚に敏感で、感覚や認知の過程を研究する貴重な道具として機能する。
大規模視覚言語モデル(LVLM)のような機械が視覚錯覚に類似した感受性を示すかどうかの研究が始まっている。
論文 参考訳(メタデータ) (2025-06-06T05:47:50Z) - Emergent Active Perception and Dexterity of Simulated Humanoids from Visual Reinforcement Learning [69.71072181304066]
本稿では,擬似ヒューマノイドを用いた視覚駆動全身制御フレームワークであるPerceptive Dexterous Control (PDC)を紹介する。
PDCは、タスク仕様のためのエゴセントリックなビジョンのみを運用し、ビジュアルキューによるオブジェクト検索、ターゲット配置、スキル選択を可能にする。
強化学習によるスクラッチからのトレーニングは,能動探索などの創発的な行動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2025-05-18T07:33:31Z) - IllusionBench+: A Large-scale and Comprehensive Benchmark for Visual Illusion Understanding in Vision-Language Models [56.34742191010987]
現在のビジュアル言語モデル(VLM)は印象的なイメージ理解を示すが、視覚錯覚に苦慮している。
我々はIllusionBenchを紹介した。IllusionBenchは、古典的な認知錯覚と現実のシーン錯覚を含む包括的視覚錯覚データセットである。
我々は従来のパターンに似ているが現実に異なるトラップイリュージョンを設計し、SOTAモデルの問題を強調する。
論文 参考訳(メタデータ) (2025-01-01T14:10:25Z) - The Art of Deception: Color Visual Illusions and Diffusion Models [55.830105086695]
近年の研究では、人工ニューラルネットワーク(ANN)が視覚錯覚によっても騙せることが示されている。
拡散モデルにおいて視覚錯覚がどのように符号化されているかを示す。
また,テキスト・ツー・イメージ拡散モデルを用いて,現実的な画像に新たな視覚錯覚を生成する方法を示す。
論文 参考訳(メタデータ) (2024-12-13T13:07:08Z) - Grounding Visual Illusions in Language: Do Vision-Language Models
Perceive Illusions Like Humans? [28.654771227396807]
VLM(Vision-Language Models)は、人間の世界理解を模した膨大な量のデータに基づいて訓練されている。
VLMは人間がするのと同じような錯覚を持っているのか、それとも現実を表現することを忠実に学んでいるのか?
我々は、5種類の視覚錯視を含むデータセットを構築し、4つのタスクを定式化し、最先端のVLMにおける視覚錯視を調べる。
論文 参考訳(メタデータ) (2023-10-31T18:01:11Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。