論文の概要: Evolutionary Generation of Visual Motion Illusions
- arxiv url: http://arxiv.org/abs/2112.13243v1
- Date: Sat, 25 Dec 2021 14:53:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 07:50:27.443253
- Title: Evolutionary Generation of Visual Motion Illusions
- Title(参考訳): 視覚運動錯覚の進化的生成
- Authors: Lana Sinapayen and Eiji Watanabe
- Abstract要約: 本稿では,新しい視覚運動錯覚を生み出す進化的イリュージョンジェネレータ(EIGen)について述べる。
EIGenの構造は、照明運動が脳自身の予測を知覚した結果であるかもしれないという仮説を支持している。
本論文の科学的動機は、視覚運動の知覚が脳の予測能力の副作用であることを示すことである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Why do we sometimes perceive static images as if they were moving? Visual
motion illusions enjoy a sustained popularity, yet there is no definitive
answer to the question of why they work. We present a generative model, the
Evolutionary Illusion GENerator (EIGen), that creates new visual motion
illusions. The structure of EIGen supports the hypothesis that illusory motion
might be the result of perceiving the brain's own predictions rather than
perceiving raw visual input from the eyes. The scientific motivation of this
paper is to demonstrate that the perception of illusory motion could be a side
effect of the predictive abilities of the brain. The philosophical motivation
of this paper is to call attention to the untapped potential of "motivated
failures", ways for artificial systems to fail as biological systems fail, as a
worthy outlet for Artificial Intelligence and Artificial Life research.
- Abstract(参考訳): なぜ静止画像が動いているかのように知覚するのでしょうか?
視覚運動錯覚は、持続的な人気を享受するが、なぜ働くのかという疑問に対する明確な答えはない。
我々は,新しい視覚運動錯覚を生成する生成モデルである進化的錯覚生成器(eigen)を提案する。
固有運動の構造は、目からの生の視覚入力を知覚するのではなく、脳の予測を知覚した結果かもしれないという仮説を支持している。
本論文の科学的動機は、視覚運動の知覚が脳の予測能力の副作用であることを示すことである。
この論文の哲学的動機は、人工知能と人工生命の研究にふさわしいアウトレットとして、生物システムが失敗すると人工システムが失敗する「モチベーションされた失敗」の未解決の可能性に注意を向けることである。
関連論文リスト
- Neural Representations of Dynamic Visual Stimuli [36.04425924379253]
fMRIで測定した脳活動から視運動情報を光学的流れとして予測(あるいは復号化)できることを示す。
動き条件付き映像拡散モデルを用いて静的画像をリアルにアニメーションできることを示す。
この研究は、人間の脳がどのように視覚情報を動的に処理するかを解釈するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2024-06-04T17:59:49Z) - Brain-inspired bodily self-perception model for robot rubber hand
illusion [11.686402949452546]
本稿では,脳にインスパイアされた身体の自己知覚モデルを提案する。
6つのゴムハンドイリュージョン実験と,iCubヒューマノイドロボットや模擬環境を含むプラットフォーム上での障害実験により,本モデルを検証した。
論文 参考訳(メタデータ) (2023-03-22T02:00:09Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Adversarially trained neural representations may already be as robust as
corresponding biological neural representations [66.73634912993006]
本研究では,霊長類脳活動に直接対人的視覚攻撃を行う方法を開発した。
霊長類の視覚系を構成する生物学的ニューロンは、既存の(不正に訓練された)人工ニューラルネットワークに匹敵する敵の摂動に感受性を示す。
論文 参考訳(メタデータ) (2022-06-19T04:15:29Z) - A-ACT: Action Anticipation through Cycle Transformations [89.83027919085289]
未来を予測できる人間の能力が、機械学習アルゴリズムにどのように移行できるかを分析するために、一歩後退します。
人間の心理学に関する最近の研究は、発生を予測して、人間の脳が両方のシステムにカウントされていることを説明している。
本研究では,行動予測作業における各システムの影響について検討し,学習フレームワークに統合するためのパラダイムを導入する。
論文 参考訳(メタデータ) (2022-04-02T21:50:45Z) - High-Fidelity Neural Human Motion Transfer from Monocular Video [71.75576402562247]
ビデオベースの人間のモーション転送は、ソースモーションに従って人間のビデオアニメーションを作成します。
自然なポーズ依存非剛性変形を伴う高忠実で時間的に一貫性のある人の動き伝達を行う新しい枠組みを提案する。
実験結果では,映像リアリズムの点で最先端を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-20T16:54:38Z) - An evolutionary perspective on the design of neuromorphic shape filters [0.0]
皮質系は高度な画像処理を提供するかもしれないが、おそらくはより単純なシステムで有効であることが証明された設計原則を使用している。
本稿では,形状情報を登録するための網膜機構と皮質機構について概説する。
論文 参考訳(メタデータ) (2020-08-30T17:53:44Z) - A deep active inference model of the rubber-hand illusion [3.0854497868458464]
近年のヒトの研究では、RHIは知覚された腕の位置を変えるだけでなく、不随意力を引き起こすことが示されている。
視覚的高次元入力を扱うモデルでは,人間の知覚と力のパターンが類似していることが示される。
論文 参考訳(メタデータ) (2020-08-17T15:28:57Z) - Visual Grounding of Learned Physical Models [66.04898704928517]
人間は、物体の物理的特性を直感的に認識し、複雑な相互作用に従事している場合でも、その動きを予測する。
我々は、物理を同時に推論し、視覚と力学の先行に基づく将来の予測を行うニューラルモデルを提案する。
実験により、我々のモデルはいくつかの観測範囲内で物理的特性を推測できることが示され、モデルが目に見えないシナリオに迅速に適応し、将来正確な予測を行うことができる。
論文 参考訳(メタデータ) (2020-04-28T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。