論文の概要: Revisiting the Role of Relearning in Semantic Dementia
- arxiv url: http://arxiv.org/abs/2503.03545v1
- Date: Wed, 05 Mar 2025 14:28:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:51:32.654183
- Title: Revisiting the Role of Relearning in Semantic Dementia
- Title(参考訳): セマンティック認知症における再学習の役割の再考
- Authors: Devon Jarvis, Verena Klar, Richard Klein, Benjamin Rosman, Andrew Saxe,
- Abstract要約: 失った知識の再学習は、意味認知症などの慢性認知疾患では広く支持されていない。
従来の研究では、深い線形人工知能ニューラルネットワークが人間に似た意味学習の段階を示すことが示されている。
深層線形ネットワークを用いて、特定の萎縮ではなく、疾患進行中の再学習がSDに関連する行動パターンを引き起こすという仮説を検証した。
- 参考スコア(独自算出の注目度): 10.69545448873646
- License:
- Abstract: Patients with semantic dementia (SD) present with remarkably consistent atrophy of neurons in the anterior temporal lobe and behavioural impairments, such as graded loss of category knowledge. While relearning of lost knowledge has been shown in acute brain injuries such as stroke, it has not been widely supported in chronic cognitive diseases such as SD. Previous research has shown that deep linear artificial neural networks exhibit stages of semantic learning akin to humans. Here, we use a deep linear network to test the hypothesis that relearning during disease progression rather than particular atrophy cause the specific behavioural patterns associated with SD. After training the network to generate the common semantic features of various hierarchically organised objects, neurons are successively deleted to mimic atrophy while retraining the model. The model with relearning and deleted neurons reproduced errors specific to SD, including prototyping errors and cross-category confusions. This suggests that relearning is necessary for artificial neural networks to reproduce the behavioural patterns associated with SD in the absence of \textit{output} non-linearities. Our results support a theory of SD progression that results from continuous relearning of lost information. Future research should revisit the role of relearning as a contributing factor to cognitive diseases.
- Abstract(参考訳): 意味認知症(SD)の患者は、前頭側頭葉における神経細胞の顕著な萎縮と、カテゴリー知識の段階的喪失などの行動障害を呈する。
脳卒中などの急性脳損傷では、失った知識の再学習が見られたが、SDのような慢性認知疾患では広く支持されていない。
従来の研究では、深い線形人工知能ニューラルネットワークが人間に似た意味学習の段階を示すことが示されている。
ここでは, 深層線形ネットワークを用いて, 特定の萎縮ではなく, 疾患進行中の再学習が, SDに関連する特定の行動パターンを引き起こすという仮説を検証した。
ネットワークをトレーニングして、様々な階層的な組織化されたオブジェクトの共通意味的特徴を生成すると、ニューロンは、モデルを再訓練しながら、萎縮を模倣するために順次削除される。
再学習と削除されたニューロンのモデルでは、プロトタイピングエラーやカテゴリ間の混乱など、SD固有のエラーを再現した。
このことは、機械学習が、‘textit{output} non-linearities’が存在しない場合に、SDに関連する行動パターンを再現するために必要であることを示している。
本研究は,失った情報の連続的再学習から生じるSD進行の理論を支持する。
今後の研究は、認知疾患に寄与する要因として再学習の役割を再考すべきである。
関連論文リスト
- Neuromimetic metaplasticity for adaptive continual learning [2.1749194587826026]
本研究では,人間の作業記憶にインスパイアされたメタ塑性モデルを提案する。
このアプローチの重要な側面は、安定から柔軟性までの異なるタイプのシナプスを実装し、それらをランダムに混在させて、柔軟性の異なるシナプス接続をトレーニングすることである。
このモデルは、追加の訓練や構造変更を必要とせず、メモリ容量と性能のバランスのとれたトレードオフを実現した。
論文 参考訳(メタデータ) (2024-07-09T12:21:35Z) - Towards a Foundation Model for Brain Age Prediction using coVariance
Neural Networks [102.75954614946258]
時間的年齢に関する脳年齢の増加は、神経変性と認知低下に対する脆弱性の増加を反映している。
NeuroVNNは、時系列年齢を予測するために、健康な人口の回帰モデルとして事前訓練されている。
NeuroVNNは、脳の年齢に解剖学的解釈性を加え、任意の脳のアトラスに従って計算されたデータセットへの転移を可能にする「スケールフリー」特性を持つ。
論文 参考訳(メタデータ) (2024-02-12T14:46:31Z) - Deep learning reveals the common spectrum underlying multiple brain
disorders in youth and elders from brain functional networks [53.257804915263165]
ヒトの初期および後期の脳障害は、脳機能における病理学的変化を共有する可能性がある。
病理的共通性に関する神経画像データによる重要な証拠はいまだ発見されていない。
多地点機能磁気共鳴画像データを用いたディープラーニングモデルを構築し、健康的な制御から5つの異なる脳障害を分類する。
論文 参考訳(メタデータ) (2023-02-23T09:22:05Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Brain-inspired feature exaggeration in generative replay for continual
learning [4.682734815593623]
新しいクラスを学ぶとき、以前に学んだクラスの内部表現はしばしば上書きされる。
神経科学の最近の進歩は、脳が自身の記憶干渉を避ける方法を発見した。
本稿では,クラス増分学習データセットCIFAR100の早期クラス分類における最先端性能について述べる。
論文 参考訳(メタデータ) (2021-10-26T10:49:02Z) - ICAM-reg: Interpretable Classification and Regression with Feature
Attribution for Mapping Neurological Phenotypes in Individual Scans [3.589107822343127]
本研究では,生成的深層学習における最近の進歩を活かし,同時分類法,回帰法,特徴帰属法を開発した。
Alzheimer's Disease Neuroimaging InitiativeコホートにおけるMini-Mental State examination (MMSE)認知テストスコア予測のタスクについて検証した。
本稿では,生成したfaマップを用いて異常予測を説明し,回帰加群を組み込むことで潜在空間の不連続性を改善することを示す。
論文 参考訳(メタデータ) (2021-03-03T17:55:14Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Longitudinal Self-Supervised Learning [13.094393751939837]
グラウンド・トゥルース・ラベルは神経科学においてしばしば欠落しているか高価である。
本稿では,MRIと潜在画像表現の関連因子間の多変量写像を定式化することにより,歪みの新たな定義を提案する。
我々は、画像表現から脳年齢を乱すコサインロスを伴う標準的な自動符号化構造を用いて、LSSL(Longitudinal Self-Supervised Learning)というモデルを実装した。
論文 参考訳(メタデータ) (2020-06-12T03:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。