論文の概要: Recent advances in the Self-Referencing Embedding Strings (SELFIES)
library
- arxiv url: http://arxiv.org/abs/2302.03620v1
- Date: Tue, 7 Feb 2023 17:24:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 15:29:12.413182
- Title: Recent advances in the Self-Referencing Embedding Strings (SELFIES)
library
- Title(参考訳): 自己参照埋め込み文字列ライブラリ(SELFIES)の最近の進歩
- Authors: Alston Lo, Robert Pollice, AkshatKumar Nigam, Andrew D. White, Mario
Krenn and Al\'an Aspuru-Guzik
- Abstract要約: 文字列に基づく分子表現は、化学情報学の応用において重要な役割を果たす。
SMILESのような伝統的な文字列ベースの表現は、生成モデルによって生成される場合、しばしば構文的および意味的誤りを引き起こす。
SELF-referencIng Embedded Strings (SELFIES) が提案された。
- 参考スコア(独自算出の注目度): 1.9573380763700712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: String-based molecular representations play a crucial role in cheminformatics
applications, and with the growing success of deep learning in chemistry, have
been readily adopted into machine learning pipelines. However, traditional
string-based representations such as SMILES are often prone to syntactic and
semantic errors when produced by generative models. To address these problems,
a novel representation, SELF-referencIng Embedded Strings (SELFIES), was
proposed that is inherently 100% robust, alongside an accompanying open-source
implementation. Since then, we have generalized SELFIES to support a wider
range of molecules and semantic constraints and streamlined its underlying
grammar. We have implemented this updated representation in subsequent versions
of \selfieslib, where we have also made major advances with respect to design,
efficiency, and supported features. Hence, we present the current status of
\selfieslib (version 2.1.1) in this manuscript.
- Abstract(参考訳): 文字列ベースの分子表現は、化学情報学の応用において重要な役割を担い、化学における深層学習の成功により、機械学習パイプラインに容易に採用されている。
しかし、SMILESのような従来の文字列ベースの表現は、生成モデルによって生成される場合、しばしば構文的および意味的誤りを引き起こす。
これらの問題に対処するために、自己参照埋め込み文字列(selfies)という新しい表現が提案され、それに伴うオープンソース実装とともに、本質的に100%堅牢である。
それ以来、より広い範囲の分子と意味的制約をサポートするためにSELFIESを一般化し、その基礎となる文法を合理化してきた。
我々は、この更新された表現を、以降のバージョンの \selfieslib で実装し、設計、効率、サポート機能に関して大きな進歩を遂げました。
したがって、この写本では、selfieslib(バージョン2.1.1)の現況を示す。
関連論文リスト
- Language Models can Self-Lengthen to Generate Long Texts [74.96074422345806]
本稿では,Self-Lengthenというイノベーティブな反復学習フレームワークを紹介する。
補助的なデータやプロプライエタリなモデルを必要としない、大規模言語モデルの本質的な知識とスキルのみを活用する。
ベンチマークと人的評価の実験により、Self-Lengthenは長文生成において既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-10-31T13:47:10Z) - Parallel Decoding via Hidden Transfer for Lossless Large Language Model Acceleration [54.897493351694195]
本稿では,複数連続するトークンを1つのフォワードパスで同時に復号する,新しい並列復号法,すなわちthithidden Transferを提案する。
加速度測定では,Medusa や Self-Speculative decoding など,単モデル加速技術よりも優れています。
論文 参考訳(メタデータ) (2024-04-18T09:17:06Z) - Efficient Guided Generation for Large Language Models [0.21485350418225244]
本稿では, 有限状態マシンの状態間の遷移の観点から, ニューラルテキスト生成の問題を構成的に再構成する方法を示す。
このフレームワークは、正規表現と文脈自由文法でテキスト生成を導くための効率的なアプローチをもたらす。
論文 参考訳(メタデータ) (2023-07-19T01:14:49Z) - Improving Zero-Shot Generalization for CLIP with Synthesized Prompts [135.4317555866831]
既存のほとんどのメソッドは、実世界のアプリケーションでは保持できない全てのクラスにラベル付きデータを必要とする。
既存の微調整法を改善するために,textbfSynttextbfHestextbfIzed textbfPrompts(textbfSHIP)と呼ばれるプラグアンドプレイ生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T15:15:45Z) - Automatic Context Pattern Generation for Entity Set Expansion [40.535332689515656]
我々は,エンティティの高品質なコンテキストパターンを自動的に生成するモジュールを開発する。
また、前述のGenerAted PAtternsを活用してターゲットエンティティを拡張するGAPAフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-17T06:50:35Z) - On Adversarial Robustness of Synthetic Code Generation [1.2559148369195197]
本論文は, 逆数例の異なるクラスを通して, 有意なデータセットバイアスの存在を示す。
バイアスを低減し,有効性を示すために,いくつかのデータセット拡張手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T09:37:48Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。