論文の概要: The Algonauts Project 2021 Challenge: How the Human Brain Makes Sense of
a World in Motion
- arxiv url: http://arxiv.org/abs/2104.13714v1
- Date: Wed, 28 Apr 2021 11:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 17:03:07.340953
- Title: The Algonauts Project 2021 Challenge: How the Human Brain Makes Sense of
a World in Motion
- Title(参考訳): 2021年の宇宙飛行士プロジェクト:人間の脳が世界の動きの感覚を作る方法
- Authors: R.M. Cichy, K. Dwivedi, B. Lahner, A. Lascelles, P. Iamshchinina, M.
Graumann, A. Andonian, N.A.R. Murty, K. Kay, G. Roig, A. Oliva
- Abstract要約: 私たちは2021年のAlgonauts Project Challenge: How the Human Brain Makes Sense of a World in Motionをリリースしました。
10人の参加者が日常の出来事を描いた1,000以上の短いビデオクリップの豊富なセットを見たときに記録された全脳fMRI応答を提供します。
このチャレンジの目的は、ビデオクリップに対する脳の反応を正確に予測することだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The sciences of natural and artificial intelligence are fundamentally
connected. Brain-inspired human-engineered AI are now the standard for
predicting human brain responses during vision, and conversely, the brain
continues to inspire invention in AI. To promote even deeper connections
between these fields, we here release the 2021 edition of the Algonauts Project
Challenge: How the Human Brain Makes Sense of a World in Motion
(http://algonauts.csail.mit.edu/). We provide whole-brain fMRI responses
recorded while 10 human participants viewed a rich set of over 1,000 short
video clips depicting everyday events. The goal of the challenge is to
accurately predict brain responses to these video clips. The format of our
challenge ensures rapid development, makes results directly comparable and
transparent, and is open to all. In this way it facilitates interdisciplinary
collaboration towards a common goal of understanding visual intelligence. The
2021 Algonauts Project is conducted in collaboration with the Cognitive
Computational Neuroscience (CCN) conference.
- Abstract(参考訳): 自然と人工知能の科学は基本的に結びついている。
脳にインスパイアされた人間工学AIは、現在、視覚中の人間の脳反応を予測する標準となっている。
これらの分野間のより深いつながりを促進するため、我々は2021年版のalgonauts project challenge: how the human brain makes sense of a world in motion (http://algonauts.csail.mit.edu/)をリリースする。
10人の被験者が毎日の出来事を描写した1000本以上の短いビデオクリップのリッチなセットを見ている間、全脳 fMRI 応答が記録された。
このチャレンジの目的は、ビデオクリップに対する脳の反応を正確に予測することだ。
私たちの挑戦の形式は、迅速な開発を保証し、結果を直接比較し、透過的にし、誰に対してもオープンです。
このようにして、視覚知能を理解するという共通の目標に向けて、学際的なコラボレーションを促進する。
2021年のalgonautsプロジェクトはcognitive computational neuroscience (ccn) conferenceと共同で行われている。
関連論文リスト
- Decoding Linguistic Representations of Human Brain [21.090956290947275]
テキスト形式と音声形式の両方を脳から言語へ復号する分類法を提案する。
この研究は、言語理解に焦点を当てた神経科学と深層学習に基づく脳復号という2つのタイプの研究を統合している。
論文 参考訳(メタデータ) (2024-07-30T07:55:44Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Digital twin brain: a bridge between biological intelligence and
artificial intelligence [12.55159053727258]
本稿では,生物と人工知能のギャップを埋めるトランスフォーメーションプラットフォームとして,Digital Twin Brain(DTB)を提案する。
DTBは、ツインニング過程の基本となる脳構造、脳機能を生成する底層モデル、幅広い応用の3つの中核要素から構成される。
論文 参考訳(メタデータ) (2023-08-03T03:36:22Z) - The Algonauts Project 2023 Challenge: UARK-UAlbany Team Solution [21.714597774964194]
この研究は、Algonauts Project 2023 Challengeへのソリューションを提示します。
この課題の主な目的は、脳の反応を予測するために計算モデルを採用することである。
我々はこの課題に対処するために、2段階のトレーニングプロセスを通じて画像ベースの脳エンコーダを構築した。
論文 参考訳(メタデータ) (2023-08-01T03:46:59Z) - Mindstorms in Natural Language-Based Societies of Mind [110.05229611910478]
ミンスキーの「心の社会」とシュミットフーバーの「思考の学習」は、大規模なマルチモーダルニューラルネットワーク(NN)の多様な社会に刺激を与えた。
最近のNNベースの心の社会の実装は、大きな言語モデル(LLM)と、自然言語インタフェースを介してコミュニケーションする他のNNベースの専門家で構成されている。
これらの自然言語に基づく心の社会(NLSOMs)では、新しいエージェント(全員が同じ普遍的なシンボル言語を介して通信する)がモジュール化された方法で簡単に追加される。
論文 参考訳(メタデータ) (2023-05-26T16:21:25Z) - The Brain Tumor Segmentation (BraTS) Challenge: Local Synthesis of Healthy Brain Tissue via Inpainting [50.01582455004711]
脳腫瘍患者の場合、画像取得の時系列は通常、すでに病理的なスキャンから始まる。
多くのアルゴリズムは、健康な脳を分析し、病変を特徴とする画像の保証を提供しないように設計されている。
例えば、脳解剖学のパーセレーション、組織セグメンテーション、脳抽出のアルゴリズムがある。
そこで参加者は、損傷した脳から健康な脳スキャンを合成するための塗装技術を探る。
論文 参考訳(メタデータ) (2023-05-15T20:17:03Z) - A Neurodiversity-Inspired Solver for the Abstraction \& Reasoning Corpus
(ARC) Using Visual Imagery and Program Synthesis [6.593059418464748]
我々は,人間の心的イメージ能力に触発されたコア知識の視覚的表現を組み合わせた,コア知識に対する新たなAIアプローチを提案する。
我々は,ARC(Abstraction & Reasoning)の課題に対して,システムの性能を実証する。
2022年のグローバルARCathonチャレンジでプライベートテストセットを4位で終えたのと同様に、公開可能なARCアイテムからの実験結果を共有します。
論文 参考訳(メタデータ) (2023-02-18T21:30:44Z) - The Algonauts Project 2023 Challenge: How the Human Brain Makes Sense of
Natural Scenes [0.0]
2023年のAlgonauts Project Challenge: How the Human Brain Makes Sense of Natural Scenesを紹介する。
このインストールは、視覚脳の計算モデルを構築するために、人工知能と生物学的知能の分野が一緒になるよう促す。
課題はすべてオープンで、各提出後に自動的に更新される公開リーダボードを通じて、結果を直接的に比較し、透過的にする。
論文 参考訳(メタデータ) (2023-01-09T08:27:36Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - IGLU 2022: Interactive Grounded Language Understanding in a
Collaborative Environment at NeurIPS 2022 [63.07251290802841]
協調環境における対話型接地言語理解(IGLU: Interactive Grounded Language Understanding)を提案する。
競争の第一の目的は、対話型エンボディエージェントの開発方法の問題にアプローチすることである。
この研究課題は、NeurIPSコミュニティと非常に関係のある2つの研究分野に自然に関連があるが、限定的ではない。
論文 参考訳(メタデータ) (2022-05-27T06:12:48Z) - NeurIPS 2021 Competition IGLU: Interactive Grounded Language
Understanding in a Collaborative Environment [71.11505407453072]
協調環境における対話型接地言語理解(IGLU: Interactive Grounded Language Understanding)を提案する。
競争の主目的は、対話型エージェントをいかにして構築するかという問題にアプローチすることであり、協調環境において、接地された自然言語命令を提供しながらタスクの解決を学ぶことである。
この研究課題は、自然言語理解・生成(NLU/G)と強化学習(RL)という、NeurIPSコミュニティと密接に関連している2つの分野に自然に関連している。
論文 参考訳(メタデータ) (2021-10-13T07:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。