論文の概要: TSIS: A Supplementary Algorithm to t-SMILES for Fragment-based Molecular
Representation
- arxiv url: http://arxiv.org/abs/2402.02164v1
- Date: Sat, 3 Feb 2024 14:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:36:36.643658
- Title: TSIS: A Supplementary Algorithm to t-SMILES for Fragment-based Molecular
Representation
- Title(参考訳): TSIS: フラグメントに基づく分子表現のためのt-SMILESの補助アルゴリズム
- Authors: Juan-Ni Wu, Tong Wang, Li-Juan Tang, Hai-Long Wu, Ru-Qin Yu
- Abstract要約: 本研究では t-SMILES ファミリーに補足アルゴリズム TSIS を導入する。
TSIS は t-SMILES で定義されたツリーを基盤データ構造として使用し続けており、SAFE モデルとは分離されている。
TSISモデルの性能はSAFEモデルよりも優れており、t-SMILESファミリーのツリー構造がいくつかの利点をもたらすことを示している。
- 参考スコア(独自算出の注目度): 2.963699772624612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: String-based molecular representations, such as SMILES, are a de facto
standard for linearly representing molecular information. However, the must be
paired symbols and the parsing algorithm result in long grammatical
dependencies, making it difficult for even state-of-the-art deep learning
models to accurately comprehend the syntax and semantics. Although DeepSMILES
and SELFIES have addressed certain limitations, they still struggle with
advanced grammar, which makes some strings difficult to read. This study
introduces a supplementary algorithm, TSIS (TSID Simplified), to t-SMILES
family. Comparative experiments between TSIS and another fragment-based linear
solution, SAFE, indicate that SAFE presents challenges in managing long-term
dependencies in grammar. TSIS continues to use the tree defined in t-SMILES as
its foundational data structure, which sets it apart from the SAFE model. The
performance of TSIS models surpasses that of SAFE models, indicating that the
tree structure of the t-SMILES family provides certain advantages.
- Abstract(参考訳): SMILESのような文字列ベースの分子表現は、分子情報を線形に表現するためのデファクト標準である。
しかし、ペア化シンボルと解析アルゴリズムは長い文法的依存関係をもたらすため、最先端のディープラーニングモデルでさえ構文や意味を正確に理解することは困難である。
DeepSMILESとSELFIESはいくつかの制限に対処しているが、高度な文法に苦慮しているため、読みにくい文字列もある。
本研究では t-SMILES ファミリーに補足アルゴリズム TSIS (TSID Simplified) を導入する。
TSISと別のフラグメントベースの線形解SAFEの比較実験は、SAFEが文法における長期依存を管理する上での課題を示すことを示している。
TSIS は t-SMILES で定義されたツリーを基盤データ構造として使用し続けており、SAFE モデルとは分離されている。
TSISモデルの性能はSAFEモデルよりも優れており、t-SMILESファミリーのツリー構造がいくつかの利点をもたらすことを示している。
関連論文リスト
- LLM-TS Integrator: Integrating LLM for Enhanced Time Series Modeling [5.853711797849859]
天気予報や異常検出などの動的システムでは時系列モデリングが不可欠である。
近年,大規模言語モデル(LLM)をTSモデリングに利用し,その強力なパターン認識機能を活用している。
論文 参考訳(メタデータ) (2024-10-21T20:29:46Z) - Interpreting token compositionality in LLMs: A robustness analysis [10.777646083061395]
Constituent-Aware Pooling (CAP)は、大規模言語モデルが言語構造をどのように処理するかを分析するために設計された方法論である。
CAPは様々なモデルレベルで構成型プールを通してモデル活性化に介入する。
論文 参考訳(メタデータ) (2024-10-16T18:10:50Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - State Space Models as Foundation Models: A Control Theoretic Overview [3.3222241150972356]
近年、ディープニューラルネットワークアーキテクチャにおける線形状態空間モデル(SSM)の統合への関心が高まっている。
本論文は、制御理論者のためのSSMベースのアーキテクチャの穏やかな導入を目的としたものである。
もっとも成功したSSM提案の体系的なレビューを提供し、コントロール理論の観点から主要な特徴を強調している。
論文 参考訳(メタデータ) (2024-03-25T16:10:47Z) - GLS-CSC: A Simple but Effective Strategy to Mitigate Chinese STM Models'
Over-Reliance on Superficial Clue [51.713301130055065]
STMモデルにおける表面的手がかりの影響を解析・緩和する。
本稿では,GLS-CSC (Superficial Clue) を含む学習サンプルをトレーニング戦略として提案する。
GLS-CSCは,中国のSTMモデルの堅牢性と一般化性の向上の観点から,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-08T07:10:57Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - LSTM based models stability in the context of Sentiment Analysis for
social media [0.0]
LSTMモデルとそのキーパラメータについて述べる。
感性分析の文脈でこれらのモデルの安定性をテストする実験を行う。
論文 参考訳(メタデータ) (2022-11-21T08:31:30Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。