論文の概要: Wet TinyML: Chemical Neural Network Using Gene Regulation and Cell
Plasticity
- arxiv url: http://arxiv.org/abs/2403.08549v1
- Date: Wed, 13 Mar 2024 14:00:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:11:02.715877
- Title: Wet TinyML: Chemical Neural Network Using Gene Regulation and Cell
Plasticity
- Title(参考訳): Wet TinyML:遺伝子制御と細胞を用いたケミカルニューラルネットワーク
塑性
- Authors: Samitha Somathilaka, Adrian Ratwatte, Sasitharan Balasubramaniam,
Mehmet Can Vuran, Witawas Srisa-an, Pietro Li\`o
- Abstract要約: Wet TinyMLは、遺伝子制御ネットワークに基づく化学ベースのニューラルネットワークの一種である。
GRNNは、アプリケーションベースの検索プロセスを利用することで、従来の計算に使用できる。
本研究は, 細胞可塑性の誘導により, 動的システムに適合する数学的回帰進化を抽出できることを実証する。
- 参考スコア(独自算出の注目度): 5.9659016963634315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In our earlier work, we introduced the concept of Gene Regulatory Neural
Network (GRNN), which utilizes natural neural network-like structures inherent
in biological cells to perform computing tasks using chemical inputs. We define
this form of chemical-based neural network as Wet TinyML. The GRNN structures
are based on the gene regulatory network and have weights associated with each
link based on the estimated interactions between the genes. The GRNNs can be
used for conventional computing by employing an application-based search
process similar to the Network Architecture Search. This study advances this
concept by incorporating cell plasticity, to further exploit natural cell's
adaptability, in order to diversify the GRNN search that can match larger
spectrum as well as dynamic computing tasks. As an example application, we show
that through the directed cell plasticity, we can extract the mathematical
regression evolution enabling it to match to dynamic system applications. We
also conduct energy analysis by comparing the chemical energy of the GRNN to
its silicon counterpart, where this analysis includes both artificial neural
network algorithms executed on von Neumann architecture as well as neuromorphic
processors. The concept of Wet TinyML can pave the way for the new emergence of
chemical-based, energy-efficient and miniature Biological AI.
- Abstract(参考訳): 初期の研究で我々は、生物細胞固有のニューラルネットワークのような構造を利用して化学入力を用いて計算タスクを実行する遺伝子レギュレーションニューラルネットワーク(GRNN)の概念を導入しました。
我々はこの化学ベースのニューラルネットワークをWet TinyMLと定義する。
GRNN構造は、遺伝子制御ネットワークに基づいており、遺伝子間の推定された相互作用に基づいて、各リンクに関連する重みを持つ。
GRNNは、Network Architecture Searchに似たアプリケーションベースの検索プロセスを使用することで、従来の計算に使用できる。
本研究は, 細胞可塑性を取り入れ, 自然セルの適応性をさらに活用して, より大きなスペクトルと動的計算タスクを一致させるGRNN探索を多様化させることにより, この概念を推し進める。
例として, 配向セルの塑性により, 動的システムに適合する数学的回帰進化を抽出できることを示す。
我々はまた、GRNNの化学エネルギーとシリコンのエネルギーを比較することでエネルギー分析を行い、この分析はフォン・ノイマンアーキテクチャ上で実行される人工ニューラルネットワークアルゴリズムとニューロモルフィックプロセッサの両方を含む。
Wet TinyMLの概念は、化学ベースの、エネルギー効率が高く、ミニチュアな生物学的AIの出現の道を開くことができる。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Inference of dynamical gene regulatory networks from single-cell data
with physics informed neural networks [0.0]
本稿では,物理インフォームドニューラルネットワーク(PINN)を用いて,予測的,動的 GRN のパラメータを推定する方法について述べる。
具体的には, 分岐挙動を示すGRNについて検討し, 細胞分化をモデル化する。
論文 参考訳(メタデータ) (2024-01-14T21:43:10Z) - Stability Analysis of Non-Linear Classifiers using Gene Regulatory
Neural Network for Biological AI [2.0755366440393743]
二重層転写翻訳化学反応モデルを用いた遺伝子パーセプトロンの数学的モデルを構築した。
我々は全接続GRNNサブネットワーク内の各遺伝子パーセプトロンの安定性解析を行い、時間的および安定した濃度出力を決定する。
論文 参考訳(メタデータ) (2023-09-14T21:37:38Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Inferring Gene Regulatory Neural Networks for Bacterial Decision Making
in Biofilms [4.459301404374565]
細菌細胞は環境を学習するのに用いられる様々な外部信号に敏感である。
遺伝性遺伝子制御ニューラルネットワーク(GRNN)の動作は、細胞決定を可能にする。
GRNNはバイオハイブリッドコンピューティングシステムのための計算タスクを実行できる。
論文 参考訳(メタデータ) (2023-01-10T22:07:33Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - A multi-agent model for growing spiking neural networks [0.0]
このプロジェクトでは、学習メカニズムとして、スパイキングニューラルネットワークのニューロン間の接続を拡大するためのルールについて検討している。
シミュレーション環境での結果は、与えられたパラメータセットに対して、テストされた関数を再現するトポロジに到達可能であることを示した。
このプロジェクトはまた、モデルパラメーターに最適な値を得るために、遺伝的アルゴリズムのようなテクニックを使用するための扉を開く。
論文 参考訳(メタデータ) (2020-09-21T15:11:29Z) - Neural Cellular Automata Manifold [84.08170531451006]
ニューラルセルラーオートマタのニューラルネットワークアーキテクチャは、より大きなNNにカプセル化可能であることを示す。
これにより、NAAの多様体を符号化する新しいモデルを提案し、それぞれが異なる画像を生成することができる。
生物学的には、我々のアプローチは転写因子の役割を担い、細胞の分化を促進する特定のタンパク質への遺伝子マッピングを調節する。
論文 参考訳(メタデータ) (2020-06-22T11:41:57Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Deep Molecular Programming: A Natural Implementation of Binary-Weight
ReLU Neural Networks [7.700240949386079]
本稿では,シリコで訓練されたBinaryConnectニューラルネットワークを等価な化学反応ネットワークにコンパイルする方法を示す。
私たちの研究は、ニューラルネットワークと分子プログラミングコミュニティ間の豊富な知識伝達のステージを設定します。
論文 参考訳(メタデータ) (2020-03-30T18:12:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。