論文の概要: ReAlnet: Achieving More Human Brain-Like Vision via Human Neural
Representational Alignment
- arxiv url: http://arxiv.org/abs/2401.17231v1
- Date: Tue, 30 Jan 2024 18:18:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 13:59:36.819792
- Title: ReAlnet: Achieving More Human Brain-Like Vision via Human Neural
Representational Alignment
- Title(参考訳): ReAlnet:人間の脳に似た視力を実現する
- Authors: Zitong Lu, Yile Wang and Julie D. Golomb
- Abstract要約: Re(presentational)Al(ignment)netは非侵襲的な脳波記録に基づく人間の脳活動に沿った視覚モデルである。
我々の革新的な画像から脳への多層符号化フレームワークは、神経アライメントの飛躍的な飛躍を示す。
以上の結果から,ReAlnetは人工視と人間の視界のギャップを埋める新たな先例となることが示唆された。
- 参考スコア(独自算出の注目度): 2.035627332992055
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the remarkable strides made in artificial intelligence, current
object recognition models still lag behind in emulating the mechanism of visual
information processing in human brains. Recent studies have highlighted the
potential of using neural data to mimic brain processing; however, these often
reply on invasive neural recordings from non-human subjects, leaving a critical
gap in our understanding of human visual perception and the development of more
human brain-like vision models. Addressing this gap, we present, for the first
time, "Re(presentational)Al(ignment)net", a vision model aligned with human
brain activity based on non-invasive EEG recordings, demonstrating a
significantly higher similarity to human brain representations. Our innovative
image-to-brain multi-layer encoding alignment framework not only optimizes
multiple layers of the model, marking a substantial leap in neural alignment,
but also enables the model to efficiently learn and mimic human brain's visual
representational patterns across object categories and different neural data
modalities. Furthermore, we discover that alignment with human brain
representations improves the model's adversarial robustness. Our findings
suggest that ReAlnet sets a new precedent in the field, bridging the gap
between artificial and human vision, and paving the way for more brain-like
artificial intelligence systems.
- Abstract(参考訳): 人工知能の進歩にもかかわらず、現在の物体認識モデルは人間の脳における視覚情報処理のメカニズムをエミュレートする上で遅れを取っている。
近年の研究は、脳の処理を模倣するために神経データを使うことの可能性を強調しているが、これらはしばしば非人間の被験者からの侵襲的神経記録に反応し、人間の視覚知覚とより人間の脳のような視覚モデルの発展に対する我々の理解に重大なギャップを残している。
このギャップに対処するために,我々は,非侵襲的脳波記録に基づく人間の脳活動と整合する視覚モデルであるre(presentational)al(ignment)netを初めて提示し,ヒトの脳表現とかなり高い類似性を示す。
我々の革新的な画像から脳への多重層符号化アライメントフレームワークは、モデルの複数のレイヤを最適化するだけでなく、ニューラルネットワークアライメントの大幅な飛躍を示すだけでなく、脳の視覚表現パターンをオブジェクトのカテゴリや異なるニューラルデータモダリティを効率的に学習し、模倣することができる。
さらに、人間の脳の表現との整合がモデルの敵対的ロバスト性を改善することを発見した。
realnetがこの分野に新しい先例を定め、人工視覚と人間の視覚のギャップを橋渡し、さらに脳のような人工知能システムへの道を開くことを示唆する。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Aligning Machine and Human Visual Representations across Abstraction Levels [42.86478924838503]
深層ニューラルネットワークは、視覚タスクにおける人間の振る舞いのモデルなど、幅広いアプリケーションで成功している。
しかしながら、ニューラルネットワークのトレーニングと人間の学習は基本的な方法で異なり、ニューラルネットワークは人間のように堅牢に一般化できないことが多い。
人間の概念的知識は、きめ細かいものから粗いものまで階層的に構成されているが、モデル表現は、これらの抽象レベルをすべて正確に捉えているわけではない。
このミスアライメントに対処するために、私たちはまず、人間の判断を模倣するために教師モデルを訓練し、その表現から事前訓練された状態に人間のような構造を移す。
論文 参考訳(メタデータ) (2024-09-10T13:41:08Z) - Teaching CORnet Human fMRI Representations for Enhanced Model-Brain Alignment [2.035627332992055]
認知神経科学において広く用いられる技術として機能的磁気共鳴イメージング(fMRI)は、視覚知覚の過程における人間の視覚野の神経活動を記録することができる。
本研究では,SOTAビジョンモデルCORnetに基づくモデルであるReAlnet-fMRIを提案する。
fMRIを最適化したReAlnet-fMRIは、CORnetと制御モデルの両方においてヒトの脳との類似性が高く、また、内・内・対モダリティモデル脳(fMRI、EEG)も高い類似性を示した。
論文 参考訳(メタデータ) (2024-07-15T03:31:42Z) - Unidirectional brain-computer interface: Artificial neural network
encoding natural images to fMRI response in the visual cortex [12.1427193917406]
本稿では,人間の脳を模倣する人工ニューラルネットワークVISIONを提案する。
VISIONは、人間の血行動態の反応をfMRIボクセル値として、最先端の性能を超える精度で45%の精度で予測することに成功した。
論文 参考訳(メタデータ) (2023-09-26T15:38:26Z) - Brain Captioning: Decoding human brain activity into images and text [1.5486926490986461]
本稿では,脳活動を意味のある画像やキャプションにデコードする革新的な手法を提案する。
提案手法は,最先端画像キャプションモデルを活用し,ユニークな画像再構成パイプラインを組み込んだものである。
生成したキャプションと画像の両方の定量的指標を用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-05-19T09:57:19Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Computational imaging with the human brain [1.614301262383079]
脳コンピュータインタフェース(BCI)は、人間の能力を増強するための様々な新しい可能性と経路を可能にしている。
本研究では,人間の視覚システムと適応型計算画像システムを組み合わせた隠れシーンのゴーストイメージングを実演する。
この脳とコンピュータの接続は、将来的に人間の視覚の知覚範囲を拡大する、強化された人間の計算の形式を示している。
論文 参考訳(メタデータ) (2022-10-07T08:40:18Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Multimodal foundation models are better simulators of the human brain [65.10501322822881]
1500万の画像テキストペアを事前訓練した,新たに設計されたマルチモーダル基礎モデルを提案する。
視覚的エンコーダも言語的エンコーダもマルチモーダルで訓練され,脳に近いことが判明した。
論文 参考訳(メタデータ) (2022-08-17T12:36:26Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - A Developmental Neuro-Robotics Approach for Boosting the Recognition of
Handwritten Digits [91.3755431537592]
近年のエビデンスでは、子どもの体現戦略をシミュレーションすることで、マシンインテリジェンスも改善できることが示されている。
本稿では,発達神経ロボティクスの文脈における畳み込みニューラルネットワークモデルへの具体的戦略の適用について検討する。
論文 参考訳(メタデータ) (2020-03-23T14:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。