論文の概要: Need is All You Need: Homeostatic Neural Networks Adapt to Concept Shift
- arxiv url: http://arxiv.org/abs/2205.08645v2
- Date: Sat, 21 Dec 2024 03:53:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:55:09.791749
- Title: Need is All You Need: Homeostatic Neural Networks Adapt to Concept Shift
- Title(参考訳): ホメオスタティックニューラルネットワークがコンセプトシフトに対応
- Authors: Kingson Man, Antonio Damasio, Hartmut Neven,
- Abstract要約: ホメオスタティックな特徴を組み込んだ人工ニューラルネットワークを導入する。
私たちのホメオスタティックデザインは、ニューラルネットワークの思考機械を自身の思考結果に公開します。
ホメオスタティックデザインは,概念シフトによる適応性の向上を示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In living organisms, homeostasis is the natural regulation of internal states aimed at maintaining conditions compatible with life. Typical artificial systems are not equipped with comparable regulatory features. Here, we introduce an artificial neural network that incorporates homeostatic features. Its own computing substrate is placed in a needful and vulnerable relation to the very objects over which it computes. For example, artificial neurons performing classification of MNIST digits or Fashion-MNIST articles of clothing may receive excitatory or inhibitory effects, which alter their own learning rate as a direct result of perceiving and classifying the digits. In this scenario, accurate recognition is desirable to the agent itself because it guides decisions to regulate its vulnerable internal states and functionality. Counterintuitively, the addition of vulnerability to a learner does not necessarily impair its performance. On the contrary, self-regulation in response to vulnerability confers benefits under certain conditions. We show that homeostatic design confers increased adaptability under concept shift, in which the relationships between labels and data change over time, and that the greatest advantages are obtained under the highest rates of shift. This necessitates the rapid un-learning of past associations and the re-learning of new ones. We also demonstrate the superior abilities of homeostatic learners in environments with dynamically changing rates of concept shift. Our homeostatic design exposes the artificial neural network's thinking machinery to the consequences of its own "thoughts", illustrating the advantage of putting one's own "skin in the game" to improve fluid intelligence.
- Abstract(参考訳): 生物において、ホメオスタシス(ホメオスタシス)は、生命と相容れない状態を維持することを目的とした内部状態の自然な規制である。
典型的な人工システムは、同等の規制機能を備えていない。
本稿では,ホメオスタティックな特徴を組み込んだ人工ニューラルネットワークを提案する。
独自のコンピューティング基板は、それが計算するオブジェクトと、必要で脆弱な関係にある。
例えば、MNIST桁の分類を行う人工ニューロンやFashion-MNISTの衣服の物品は興奮性または抑制的な効果を受け得る。
このシナリオでは、エージェント自体が脆弱な内部状態や機能を制御するための決定を導くため、正確な認識が望ましい。
学習者に対する脆弱性の追加は必ずしもその性能を損なうとは限らない。
逆に、脆弱性に対する自己規制は、特定の条件下での利益をもたらす。
本研究では, ラベルとデータの関係が時間とともに変化する概念シフトにおいて, ホメオスタティックデザインは適応性を高めることを示し, 最大シフト率で最大の利点が得られることを示した。
これは、過去の協会の急速なアンラーニングと、新しい協会の再ラーニングを必要とする。
また,概念シフトの速度が動的に変化する環境において,ホメオスタティック学習者の優れた能力を示す。
我々のホメオスタティックデザインは、人工知能の思考機械を自身の「思考」の結果にさらし、流体知性を改善するために自分自身の「ゲームに皮膚を置く」という利点を浮き彫りにしている。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Evolving Self-Assembling Neural Networks: From Spontaneous Activity to Experience-Dependent Learning [7.479827648985631]
本稿では, 自己組織型ニューラルネットワークを, 活動と報酬に依存した方法でシナプス的, 構造的可塑性のクラスとして提案する。
その結果、ランダムに接続されたネットワークや空きネットワークから、異なる制御タスクの経験からモデルが学習できることが示されている。
論文 参考訳(メタデータ) (2024-06-14T07:36:21Z) - Exploring mechanisms of Neural Robustness: probing the bridge between geometry and spectrum [0.0]
本研究では, 重み, ジャコビアン, スペクトル正規化による表現の滑らかさとスペクトルの関係について検討した。
本研究の目的は, 神経表現における幾何学的特徴, スペクトル特性, 頑健性, 表現性の間の相互作用を理解することである。
論文 参考訳(メタデータ) (2024-02-05T12:06:00Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Constrained plasticity reserve as a natural way to control frequency and
weights in spiking neural networks [0.0]
細胞動力学は神経細胞が激しいシグナルをフィルターして、ニューロンの発火速度を安定させるのにどのように役立つかを示す。
このようなアプローチは、AIシステムの堅牢性を改善するために、機械学習領域で使用される可能性がある。
論文 参考訳(メタデータ) (2021-03-15T05:22:14Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Backpropamine: training self-modifying neural networks with
differentiable neuromodulated plasticity [14.19992298135814]
このような神経修飾塑性を持つ人工ニューラルネットワークは、勾配降下でトレーニングできることを初めて示す。
神経変調塑性は、強化学習と教師あり学習の両方においてニューラルネットワークの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-02-24T23:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。