論文の概要: TSIS: A Supplementary Algorithm to t-SMILES for Fragment-based Molecular
Representation
- arxiv url: http://arxiv.org/abs/2402.02164v1
- Date: Sat, 3 Feb 2024 14:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:36:36.643658
- Title: TSIS: A Supplementary Algorithm to t-SMILES for Fragment-based Molecular
Representation
- Title(参考訳): TSIS: フラグメントに基づく分子表現のためのt-SMILESの補助アルゴリズム
- Authors: Juan-Ni Wu, Tong Wang, Li-Juan Tang, Hai-Long Wu, Ru-Qin Yu
- Abstract要約: 本研究では t-SMILES ファミリーに補足アルゴリズム TSIS を導入する。
TSIS は t-SMILES で定義されたツリーを基盤データ構造として使用し続けており、SAFE モデルとは分離されている。
TSISモデルの性能はSAFEモデルよりも優れており、t-SMILESファミリーのツリー構造がいくつかの利点をもたらすことを示している。
- 参考スコア(独自算出の注目度): 2.963699772624612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: String-based molecular representations, such as SMILES, are a de facto
standard for linearly representing molecular information. However, the must be
paired symbols and the parsing algorithm result in long grammatical
dependencies, making it difficult for even state-of-the-art deep learning
models to accurately comprehend the syntax and semantics. Although DeepSMILES
and SELFIES have addressed certain limitations, they still struggle with
advanced grammar, which makes some strings difficult to read. This study
introduces a supplementary algorithm, TSIS (TSID Simplified), to t-SMILES
family. Comparative experiments between TSIS and another fragment-based linear
solution, SAFE, indicate that SAFE presents challenges in managing long-term
dependencies in grammar. TSIS continues to use the tree defined in t-SMILES as
its foundational data structure, which sets it apart from the SAFE model. The
performance of TSIS models surpasses that of SAFE models, indicating that the
tree structure of the t-SMILES family provides certain advantages.
- Abstract(参考訳): SMILESのような文字列ベースの分子表現は、分子情報を線形に表現するためのデファクト標準である。
しかし、ペア化シンボルと解析アルゴリズムは長い文法的依存関係をもたらすため、最先端のディープラーニングモデルでさえ構文や意味を正確に理解することは困難である。
DeepSMILESとSELFIESはいくつかの制限に対処しているが、高度な文法に苦慮しているため、読みにくい文字列もある。
本研究では t-SMILES ファミリーに補足アルゴリズム TSIS (TSID Simplified) を導入する。
TSISと別のフラグメントベースの線形解SAFEの比較実験は、SAFEが文法における長期依存を管理する上での課題を示すことを示している。
TSIS は t-SMILES で定義されたツリーを基盤データ構造として使用し続けており、SAFE モデルとは分離されている。
TSISモデルの性能はSAFEモデルよりも優れており、t-SMILESファミリーのツリー構造がいくつかの利点をもたらすことを示している。
関連論文リスト
- Learning Identifiable Structures Helps Avoid Bias in DNN-based Supervised Causal Learning [56.22841701016295]
Supervised Causal Learning (SCL)はこの分野で新興パラダイムである。
既存のディープニューラルネットワーク(DNN)ベースの手法では、"Node-Edgeアプローチ"が一般的である。
論文 参考訳(メタデータ) (2025-02-15T19:10:35Z) - Analysis and Visualization of Linguistic Structures in Large Language Models: Neural Representations of Verb-Particle Constructions in BERT [0.0]
本研究では,大言語モデル(LLM)における動詞-助詞の組み合わせの内部表現について検討する。
我々は'agree on'、'come back'、'give up'といった様々な動詞粒子構築のための各層の表現効果を分析する。
その結果,BERTの中間層は,各動詞カテゴリの表現精度に有意なばらつきがあり,構文構造を効果的に捉えていることがわかった。
論文 参考訳(メタデータ) (2024-12-19T09:21:39Z) - Interpreting token compositionality in LLMs: A robustness analysis [10.777646083061395]
Constituent-Aware Pooling (CAP)は、大規模言語モデルが言語構造をどのように処理するかを分析するために設計された方法論である。
CAPは様々なモデルレベルで構成型プールを通してモデル活性化に介入する。
本研究は,合成セマンティクス処理とモデル解釈可能性に関する,現在のトランスフォーマーアーキテクチャの基本的制約を明らかにする。
論文 参考訳(メタデータ) (2024-10-16T18:10:50Z) - Parrot Mind: Towards Explaining the Complex Task Reasoning of Pretrained Large Language Models with Template-Content Structure [66.33623392497599]
テンプレート・コンテント構造(T-C構造)と呼ばれる構造は指数レベルから線形レベルへの可能な空間を減少させることができることを示す。
モデルがタスク構成を達成でき、線形から対数への学習に必要なスペースをさらに削減できることを実証する。
論文 参考訳(メタデータ) (2023-10-09T06:57:45Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - Improving Compositional Generalization with Self-Training for
Data-to-Text Generation [36.973617793800315]
データ・テキスト・タスクにおける現在の生成モデルの合成一般化について検討する。
構成的気象データセットの構造変化をシミュレートすることにより、T5モデルは目に見えない構造に一般化できないことを示す。
擬似応答選択のための細調整BLEURTを用いた自己学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-10-16T04:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。