論文の概要: TSIS: A Supplementary Algorithm to t-SMILES for Fragment-based Molecular
Representation
- arxiv url: http://arxiv.org/abs/2402.02164v1
- Date: Sat, 3 Feb 2024 14:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:36:36.643658
- Title: TSIS: A Supplementary Algorithm to t-SMILES for Fragment-based Molecular
Representation
- Title(参考訳): TSIS: フラグメントに基づく分子表現のためのt-SMILESの補助アルゴリズム
- Authors: Juan-Ni Wu, Tong Wang, Li-Juan Tang, Hai-Long Wu, Ru-Qin Yu
- Abstract要約: 本研究では t-SMILES ファミリーに補足アルゴリズム TSIS を導入する。
TSIS は t-SMILES で定義されたツリーを基盤データ構造として使用し続けており、SAFE モデルとは分離されている。
TSISモデルの性能はSAFEモデルよりも優れており、t-SMILESファミリーのツリー構造がいくつかの利点をもたらすことを示している。
- 参考スコア(独自算出の注目度): 2.963699772624612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: String-based molecular representations, such as SMILES, are a de facto
standard for linearly representing molecular information. However, the must be
paired symbols and the parsing algorithm result in long grammatical
dependencies, making it difficult for even state-of-the-art deep learning
models to accurately comprehend the syntax and semantics. Although DeepSMILES
and SELFIES have addressed certain limitations, they still struggle with
advanced grammar, which makes some strings difficult to read. This study
introduces a supplementary algorithm, TSIS (TSID Simplified), to t-SMILES
family. Comparative experiments between TSIS and another fragment-based linear
solution, SAFE, indicate that SAFE presents challenges in managing long-term
dependencies in grammar. TSIS continues to use the tree defined in t-SMILES as
its foundational data structure, which sets it apart from the SAFE model. The
performance of TSIS models surpasses that of SAFE models, indicating that the
tree structure of the t-SMILES family provides certain advantages.
- Abstract(参考訳): SMILESのような文字列ベースの分子表現は、分子情報を線形に表現するためのデファクト標準である。
しかし、ペア化シンボルと解析アルゴリズムは長い文法的依存関係をもたらすため、最先端のディープラーニングモデルでさえ構文や意味を正確に理解することは困難である。
DeepSMILESとSELFIESはいくつかの制限に対処しているが、高度な文法に苦慮しているため、読みにくい文字列もある。
本研究では t-SMILES ファミリーに補足アルゴリズム TSIS (TSID Simplified) を導入する。
TSISと別のフラグメントベースの線形解SAFEの比較実験は、SAFEが文法における長期依存を管理する上での課題を示すことを示している。
TSIS は t-SMILES で定義されたツリーを基盤データ構造として使用し続けており、SAFE モデルとは分離されている。
TSISモデルの性能はSAFEモデルよりも優れており、t-SMILESファミリーのツリー構造がいくつかの利点をもたらすことを示している。
関連論文リスト
- DEEP-ICL: Definition-Enriched Experts for Language Model In-Context
Learning [61.85871109164743]
大規模言語モデル(LLM)におけるパラメータの多さは、コンテキスト内学習(ICL)の能力を促進すると長い間考えられてきた。
ICL のための新しいタスク定義拡張 ExPert Ensembling Method である DEEP-ICL を紹介する。
ICLの改善はモデルのサイズに直接依存するのではなく、基本的にはタスク定義やタスク誘導学習の理解に起因している、と我々は主張する。
論文 参考訳(メタデータ) (2024-03-07T05:26:41Z) - Sequential Visual and Semantic Consistency for Semi-supervised Text
Recognition [56.968108142307976]
Scene Text Recognition (STR) は、大規模なアノテートデータを必要とする課題である。
既存のSTR法の多くは、STRモデルの性能を低下させ、ドメイン差を生じさせる合成データに頼っている。
本稿では,視覚的・意味的両面から単語レベルの整合性正則化を取り入れたSTRの半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2024-02-24T13:00:54Z) - Parrot Mind: Towards Explaining the Complex Task Reasoning of Pretrained Large Language Models with Template-Content Structure [66.33623392497599]
テンプレート・コンテント構造(T-C構造)と呼ばれる構造は指数レベルから線形レベルへの可能な空間を減少させることができることを示す。
モデルがタスク構成を達成でき、線形から対数への学習に必要なスペースをさらに削減できることを実証する。
論文 参考訳(メタデータ) (2023-10-09T06:57:45Z) - Idioms, Probing and Dangerous Things: Towards Structural Probing for
Idiomaticity in Vector Space [2.5288257442251107]
本研究の目的は, 埋め込まれた慣用的な情報がどのように構造的にコード化されているか, より深く知ることである。
静的 (GloVe) とコンテキスト埋め込み (BERT) の比較検討を行った。
実験の結果,慣用性がベクトルノルムに符号化されているかどうかの矛盾する証拠が得られた。
論文 参考訳(メタデータ) (2023-04-27T17:06:20Z) - Extend and Explain: Interpreting Very Long Language Models [0.0]
本稿では,予測に寄与するテキストブロックを識別するための新しいMasked Smpling procedure (MSP)を提案する。
MSPは、以前の最先端よりも1.7倍の臨床的に有益なテキストブロックを特定し、100倍の速度で走り、重要なフレーズペアを生成することができる。
論文 参考訳(メタデータ) (2022-09-02T17:15:43Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - SetMargin Loss applied to Deep Keystroke Biometrics with Circle Packing
Interpretation [67.0845003374569]
本研究は,新しい距離距離学習法(DML)に基づくキーストロークバイオメトリックスのための新しい深層学習手法を提案する。
提案手法の有効性を実験的に証明し, キーストロークの生体認証を78,000名の被験者に対して行った。
論文 参考訳(メタデータ) (2021-09-02T13:26:57Z) - LSTMs Compose (and Learn) Bottom-Up [18.34617849764921]
NLPにおける最近の研究は、LSTM言語モデルが言語データの階層構造を捉えていることを示している。
既存の研究とは対照的に,その構成行動に繋がるテキスト学習のプロセスを考える。
本稿では,LSTMにおける単語の意味間の分解的相互依存性を,ゲート間の相互作用に基づいて測定する。
論文 参考訳(メタデータ) (2020-10-06T13:00:32Z) - Influence Paths for Characterizing Subject-Verb Number Agreement in LSTM
Language Models [22.826154706036995]
LSTMベースのリカレントニューラルネットワークは、多くの自然言語処理(NLP)タスクの最先端技術である。
この理解の欠如として、このタスクにおけるLSTM性能の一般性と、関連するタスクに対するそれらの適合性は不確かである。
本稿では, 繰り返し神経回路のゲートとニューロンを横断する経路として, 構造特性の因果的説明である*影響経路*を紹介する。
論文 参考訳(メタデータ) (2020-05-03T21:10:31Z) - Word Interdependence Exposes How LSTMs Compose Representations [18.34617849764921]
NLPにおける最近の研究は、LSTM言語モデルが言語データの構成構造を捉えていることを示している。
LSTMにおける単語の意味間の相互依存度を,内部ゲートでの相互作用に基づく新しい尺度として提示する。
論文 参考訳(メタデータ) (2020-04-27T21:48:08Z) - Depth-Adaptive Graph Recurrent Network for Text Classification [71.20237659479703]
S-LSTM(Sentence-State LSTM)は、高効率なグラフリカレントネットワークである。
そこで本研究では,S-LSTMの深度適応機構を提案する。
論文 参考訳(メタデータ) (2020-02-29T03:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。