論文の概要: Understanding Attention: In Minds and Machines
- arxiv url: http://arxiv.org/abs/2012.02659v1
- Date: Fri, 4 Dec 2020 15:35:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 03:26:28.489483
- Title: Understanding Attention: In Minds and Machines
- Title(参考訳): 注意を理解する:心と機械の中で
- Authors: Shriraj P. Sawant and Shruti Singh
- Abstract要約: 人工ニューラルネットワーク(ANN)における注意のコンセプトと変種について概観する。
神経科学の観点からの注意の起源をANNのそれと平行して論じる。
- 参考スコア(独自算出の注目度): 0.5874142059884521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Attention is a complex and broad concept, studied across multiple disciplines
spanning artificial intelligence, cognitive science, psychology, neuroscience,
and related fields. Although many of the ideas regarding attention do not
significantly overlap among these fields, there is a common theme of adaptive
control of limited resources. In this work, we review the concept and variants
of attention in artificial neural networks (ANNs). We also discuss the origin
of attention from the neuroscience point of view parallel to that of ANNs.
Instead of having seemingly disconnected dialogues between varied disciplines,
we suggest grounding the ideas on common conceptual frameworks for a systematic
analysis of attention and towards possible unification of ideas in AI and
Neuroscience.
- Abstract(参考訳): 注意は複雑で広い概念であり、人工知能、認知科学、心理学、神経科学、関連する分野にまたがる複数の分野にわたって研究されている。
注意に関する考えの多くはこれらの分野に大きく重なり合っていないが、限られた資源を適応的に制御する共通のテーマがある。
本稿では,ニューラルネットワーク(ANN)における注意のコンセプトと変種について概説する。
また、神経科学の観点から、ANNと平行する注意の起源についても論じる。
様々な分野間の相互接続のように見える対話を行う代わりに、注意の体系的な分析と、AIや神経科学におけるアイデアの統一に向けて、共通の概念的枠組みに基づく考え方を提案する。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Metacognitive AI: Framework and the Case for a Neurosymbolic Approach [5.5441283041944]
我々は、TRAPと呼ばれるメタ認知人工知能(AI)を理解するための枠組みを導入する。
我々は、これらの局面のそれぞれについて議論し、メタ認知の課題に対処するために、ニューロシンボリックAI(NSAI)をどのように活用できるかを探求する。
論文 参考訳(メタデータ) (2024-06-17T23:30:46Z) - Position: An Inner Interpretability Framework for AI Inspired by Lessons from Cognitive Neuroscience [4.524832437237367]
内解釈可能性(Inner Interpretability)は、AIシステムの内部メカニズムを明らかにするための、有望な分野である。
近年の批判は、AIの幅広い目標を前進させるための有用性に疑問を呈する問題を提起している。
ここでは、関係する関係を描き、フィールド間で生産的に伝達できる教訓を強調します。
論文 参考訳(メタデータ) (2024-06-03T14:16:56Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - From Neural Activations to Concepts: A Survey on Explaining Concepts in Neural Networks [15.837316393474403]
概念は学習と推論の自然な結びつきとして機能する。
知識はニューラルネットワークから抽出できるだけでなく、概念知識をニューラルネットワークアーキテクチャに挿入することもできる。
論文 参考訳(メタデータ) (2023-10-18T11:08:02Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Foundations and Recent Trends in Multimodal Machine Learning:
Principles, Challenges, and Open Questions [68.6358773622615]
本稿では,マルチモーダル機械学習の計算的基礎と理論的基礎について概説する。
本稿では,表現,アライメント,推論,生成,伝達,定量化という,6つの技術課題の分類法を提案する。
最近の技術的成果は、この分類のレンズを通して示され、研究者は新しいアプローチの類似点と相違点を理解することができる。
論文 参考訳(メタデータ) (2022-09-07T19:21:19Z) - HINT: Hierarchical Neuron Concept Explainer [35.07575535848492]
人類の階層的認知プロセスに触発された階層的概念を研究する。
本稿では,ニューロンと階層概念の双方向関係を効果的に構築するために,階層型ニューロンコンセプT説明器(HINT)を提案する。
HINTは、概念の暗黙的な階層的関係がニューロンに埋め込まれているかどうかを体系的に定量的に研究することを可能にする。
論文 参考訳(メタデータ) (2022-03-27T03:25:36Z) - Attention, please! A survey of Neural Attention Models in Deep Learning [0.0]
ディープラーニングの最先端は、いくつかのアプリケーションドメインの神経注意モデルによって表されます。
この調査は、神経注意モデルの発展の包括的な概要と分析を提供します。
論文 参考訳(メタデータ) (2021-03-31T02:42:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。