論文の概要: Integrating knowledge bases to improve coreference and bridging resolution for the chemical domain
- arxiv url: http://arxiv.org/abs/2404.10696v1
- Date: Tue, 16 Apr 2024 16:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 16:14:57.596311
- Title: Integrating knowledge bases to improve coreference and bridging resolution for the chemical domain
- Title(参考訳): 化学領域のコア推論とブリッジ分解能向上のための知識基盤の統合
- Authors: Pengcheng Lu, Massimo Poesio,
- Abstract要約: 本稿では,化学領域におけるコア推論とブリッジ分解能の両面において,外部知識をマルチタスク学習モデルに組み込むアプローチを提案する。
その結果,外部知識の統合は,化学コア推論とブリッジ分解能の両立に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 5.249002650134171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Resolving coreference and bridging relations in chemical patents is important for better understanding the precise chemical process, where chemical domain knowledge is very critical. We proposed an approach incorporating external knowledge into a multi-task learning model for both coreference and bridging resolution in the chemical domain. The results show that integrating external knowledge can benefit both chemical coreference and bridging resolution.
- Abstract(参考訳): 化学ドメインの知識が極めて重要である正確な化学プロセスを理解するためには、化学特許のコア推論とブリッジング関係の解決が重要である。
化学領域におけるコア推論とブリッジ分解能の両面から,外部知識をマルチタスク学習モデルに組み込んだアプローチを提案する。
その結果,外部知識の統合は,化学コア推論とブリッジ分解能の両立に有効であることが示唆された。
関連論文リスト
- CEAR: Automatic construction of a knowledge graph of chemical entities and roles from scientific literature [4.086092284014203]
本稿では,ケビの知識で既存の注釈付きテキストコーパスを増補し,化学物質とその科学テキストにおける役割を認識するための大規模モデル(LLM)を微調整する手法を提案する。
LLMのオントロジ的知識理解能力を組み合わせることで、科学文献における化学物質と役割の両方を識別する高精度なリコール率が得られる。
論文 参考訳(メタデータ) (2024-07-31T15:56:06Z) - Integrating Chemistry Knowledge in Large Language Models via Prompt Engineering [2.140221068402338]
本稿では,科学領域における大規模言語モデル(LLM)の性能向上を目的として,ドメイン固有の知識の統合について検討する。
ベンチマークデータセットは、小さな分子の複雑な物理化学的性質、薬理学の薬物性、酵素や結晶材料の機能的特性に適合する。
提案したドメイン知識組み込みのプロンプトエンジニアリング手法は,従来のプロンプトエンジニアリング手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-04-22T16:55:44Z) - Structured Chemistry Reasoning with Large Language Models [70.13959639460015]
大規模言語モデル(LLMs)は様々な分野において優れているが、特に化学において複雑な科学的推論に苦慮している。
所望のガイダンスを提供し,LSMの化学的推論能力を大幅に向上させる,シンプルで効果的なプロンプト戦略であるStructChemを紹介した。
量子化学、力学、物理化学、運動学の4分野にわたる試験では、StructChemはGPT-4の性能を大幅に向上させ、最大30%のピーク改善を実現している。
論文 参考訳(メタデータ) (2023-11-16T08:20:36Z) - Chemist-X: Large Language Model-empowered Agent for Reaction Condition Recommendation in Chemical Synthesis [57.70772230913099]
Chemist-Xは、検索増強生成(RAG)技術を用いた化学合成において、反応条件レコメンデーション(RCR)タスクを自動化する。
Chemist-Xはオンラインの分子データベースを尋問し、最新の文献データベースから重要なデータを蒸留する。
Chemist-Xは化学者の作業量を大幅に減らし、より根本的で創造的な問題に集中できるようにする。
論文 参考訳(メタデータ) (2023-11-16T01:21:33Z) - ReactIE: Enhancing Chemical Reaction Extraction with Weak Supervision [27.850325653751078]
構造化化学反応情報は、実験とコンピュータ支援医薬品設計のような先進的な取り組みに携わる化学者にとって重要な役割を担っている。
科学的文献から構造的反応を抽出することが重要であるにもかかわらず、この目的のためのデータアノテーションは、ドメインの専門家が必要とする多大な労力のためにコストを抑えることができる。
本稿では,2つの弱教師付き事前学習手法を組み合わせたReactIEを提案する。本手法では,テキスト内の頻繁なパターンを言語的手がかりとして用いて,化学反応の特異な特性を同定する。
論文 参考訳(メタデータ) (2023-07-04T02:52:30Z) - Stress Testing BERT Anaphora Resolution Models for Reaction Extraction
in Chemical Patents [7.653466578233261]
化学特許には、共参照(co-reference)、変換(transform)、反応関連(reaction associated)、組立(work up)、包含(intained)の5つのアナフォリックな関係がある。
我々の目標は、ノイズフリーでノイズの多い環境で、反応テキストに対するアナフォラ分解能モデルの性能がどのように異なるかを検討することである。
論文 参考訳(メタデータ) (2023-06-23T09:01:56Z) - ChemVise: Maximizing Out-of-Distribution Chemical Detection with the
Novel Application of Zero-Shot Learning [60.02503434201552]
本研究は,簡単な学習セットから複雑な露光の学習近似を提案する。
合成センサ応答に対するこのアプローチは, 分布外の化学分析物の検出を驚くほど改善することを示した。
論文 参考訳(メタデータ) (2023-02-09T20:19:57Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Fine-Grained Chemical Entity Typing with Multimodal Knowledge
Representation [36.6963949360594]
核となる化学文献から化学反応に関する詳細な知識を抽出する方法は、新たな課題である。
本稿では, 微細な化学エンティティタイピングの問題を解決するために, マルチモーダル表現学習フレームワークを提案する。
実験の結果,提案手法は複数の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-08-29T19:41:35Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - Optimizing Molecules using Efficient Queries from Property Evaluations [66.66290256377376]
汎用的なクエリベースの分子最適化フレームワークであるQMOを提案する。
QMOは効率的なクエリに基づいて入力分子の所望の特性を改善する。
QMOは, 有機分子を最適化するベンチマークタスクにおいて, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T18:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。