論文の概要: Pattern Denoising in Molecular Associative Memory using Pairwise Markov
Random Field Models
- arxiv url: http://arxiv.org/abs/2005.13780v4
- Date: Wed, 17 Jun 2020 06:09:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:09:25.483600
- Title: Pattern Denoising in Molecular Associative Memory using Pairwise Markov
Random Field Models
- Title(参考訳): Pairwise Markov Random Field Model を用いた分子連想記憶におけるパターン認識
- Authors: Dharani Punithan and Byoung-Tak Zhang
- Abstract要約: 本稿では, パターン学習, 記憶, 認知のためのインサイリコ分子連想メモリモデルを提案する。
PMRFを用いた分子連想メモリモデルでは,露出した例から局所的な特徴を抽出する。
分子シミュレーションの結果,学習パターンと識別パターンの平均2乗誤差は低いことがわかった。
- 参考スコア(独自算出の注目度): 24.211255523490692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an in silico molecular associative memory model for pattern
learning, storage and denoising using Pairwise Markov Random Field (PMRF)
model. Our PMRF-based molecular associative memory model extracts locally
distributed features from the exposed examples, learns and stores the patterns
in the molecular associative memory and denoises the given noisy patterns via
DNA computation based operations. Thus, our computational molecular model
demonstrates the functionalities of content-addressability of human memory. Our
molecular simulation results show that the averaged mean squared error between
the learned and denoised patterns are low (< 0.014) up to 30% of noise.
- Abstract(参考訳): Pairwise Markov Random Field (PMRF) モデルを用いて, パターン学習, 記憶, 認知のためのインサイリコ分子連想メモリモデルを提案する。
PMRFをベースとした分子連想記憶モデルは、露出した例から局所的に分布した特徴を抽出し、分子連想記憶のパターンを学習し、記憶し、DNA計算に基づく操作によって与えられた雑音パターンを識別する。
したがって, 計算分子モデルは, 人間の記憶の内容適応性の機能を実証する。
分子シミュレーションの結果,学習パターンと復調パターンの平均2乗誤差は,ノイズの30%まで低い(0.014)ことがわかった。
関連論文リスト
- MING: A Functional Approach to Learning Molecular Generative Models [46.189683355768736]
本稿では,関数表現に基づく分子生成モデル学習のための新しいパラダイムを提案する。
本稿では,関数空間における分子分布を学習する拡散モデルである分子インプリシットニューラルジェネレーション(MING)を提案する。
論文 参考訳(メタデータ) (2024-10-16T13:02:02Z) - Foundation Inference Models for Markov Jump Processes [3.005912045854039]
境界状態空間上のマルコフジャンプ過程(MJP)のゼロショット推論手法を提案する。
1つの(事前訓練された)モデルと同一の(事前訓練された)モデルは、ゼロショットの方法で、異なる次元の状態空間で進化する隠れMJPを推論することができる。
論文 参考訳(メタデータ) (2024-06-10T16:12:00Z) - Glauber Generative Model: Discrete Diffusion Models via Binary Classification [21.816933208895843]
離散拡散モデルの新しいクラスであるグラウバー生成モデル(GGM)を紹介する。
GGMはマルコフ連鎖を展開させ、離散トークンの共分散からサンプルにノイズトークンの列を分解する。
言語生成や画像生成において,既存の離散拡散モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-27T10:42:13Z) - Semantically-correlated memories in a dense associative model [2.7195102129095003]
私はCorrelated Associative Memory(CDAM)という新しい連想記憶モデルを紹介します。
CDAMは、自動連想とヘテロ連想の両方を、連続的に評価されたメモリパターンのための統一されたフレームワークに統合する。
理論的、数値的に解析され、4つの異なる力学モードが明らかにされている。
論文 参考訳(メタデータ) (2024-04-10T16:04:07Z) - Molecule Design by Latent Space Energy-Based Modeling and Gradual
Distribution Shifting [53.44684898432997]
化学的・生物学的性質が望ましい分子の生成は、薬物発見にとって重要である。
本稿では,分子の結合分布とその特性を捉える確率的生成モデルを提案する。
本手法は種々の分子設計タスクにおいて非常に強力な性能を発揮する。
論文 参考訳(メタデータ) (2023-06-09T03:04:21Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Low-Rank Constraints for Fast Inference in Structured Models [110.38427965904266]
この研究は、大規模構造化モデルの計算とメモリの複雑さを低減するための単純なアプローチを示す。
言語モデリング,ポリフォニック・ミュージック・モデリング,教師なし文法帰納法,ビデオ・モデリングのためのニューラルパラメータ構造モデルを用いた実験により,我々の手法は大規模状態空間における標準モデルの精度と一致することを示した。
論文 参考訳(メタデータ) (2022-01-08T00:47:50Z) - DriPP: Driven Point Processes to Model Stimuli Induced Patterns in M/EEG
Signals [62.997667081978825]
我々はDriPPと呼ばれる新しい統計点過程モデルを開発する。
我々は、このモデルのパラメータを推定するために、高速で原理化された予測最大化(EM)アルゴリズムを導出する。
標準MEGデータセットの結果から,我々の手法が事象関連ニューラルレスポンスを明らかにすることが示された。
論文 参考訳(メタデータ) (2021-12-08T13:07:21Z) - Learning Neural Generative Dynamics for Molecular Conformation
Generation [89.03173504444415]
分子グラフから分子コンフォメーション(つまり3d構造)を生成する方法を検討した。
分子グラフから有効かつ多様なコンフォーメーションを生成する新しい確率論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-02-20T03:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。