論文の概要: Grounding Large Language Models in Reaction Knowledge Graphs for Synthesis Retrieval
- arxiv url: http://arxiv.org/abs/2601.16038v1
- Date: Thu, 22 Jan 2026 15:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.63594
- Title: Grounding Large Language Models in Reaction Knowledge Graphs for Synthesis Retrieval
- Title(参考訳): 合成検索のための反応知識グラフを用いた大規模言語モデルの構築
- Authors: Olga Bunkova, Lorenzo Di Fruscia, Sophia Rupprecht, Artur M. Schweidtmann, Marcel J. T. Reinders, Jana M. Weber,
- Abstract要約: LLM(Large Language Models)は化学における合成計画を支援するが、標準的なプロンプト法はしばしば幻覚的あるいは時代遅れな提案をもたらす。
本研究では,リアクションパス検索をText2Cypher(自然言語からグラフクエリ)生成問題として,リアクション知識グラフとのLLM相互作用について検討する。
我々は、ゼロショットプロンプトを静的、ランダム、埋め込みに基づく模範選択を用いて1ショットの変種と比較し、チェックリスト駆動のバリデータ/コレクタループを評価する。
- 参考スコア(独自算出の注目度): 1.1269876435166009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) can aid synthesis planning in chemistry, but standard prompting methods often yield hallucinated or outdated suggestions. We study LLM interactions with a reaction knowledge graph by casting reaction path retrieval as a Text2Cypher (natural language to graph query) generation problem, and define single- and multi-step retrieval tasks. We compare zero-shot prompting to one-shot variants using static, random, and embedding-based exemplar selection, and assess a checklist-driven validator/corrector loop. To evaluate our framework, we consider query validity and retrieval accuracy. We find that one-shot prompting with aligned exemplars consistently performs best. Our checklist-style self-correction loop mainly improves executability in zero-shot settings and offers limited additional retrieval gains once a good exemplar is present. We provide a reproducible Text2Cypher evaluation setup to facilitate further work on KG-grounded LLMs for synthesis planning. Code is available at https://github.com/Intelligent-molecular-systems/KG-LLM-Synthesis-Retrieval.
- Abstract(参考訳): LLM(Large Language Models)は化学における合成計画を支援するが、標準的なプロンプト法はしばしば幻覚的あるいは時代遅れな提案をもたらす。
本研究では,リアクションパス検索をText2Cypher(自然言語からグラフクエリ)生成問題としてキャストすることで,リアクション知識グラフとのLLMインタラクションを調査し,単一ステップおよび複数ステップ検索タスクを定義する。
我々は、ゼロショットプロンプトを静的、ランダム、埋め込みに基づく模範選択を用いて1ショットの変種と比較し、チェックリスト駆動のバリデータ/コレクタループを評価する。
本フレームワークを評価するために,クエリの妥当性と検索精度を検討する。
一致した模範者によるワンショットプロンプトが、常に最高のパフォーマンスを発揮することが分かりました。
我々のチェックリストスタイルの自己補正ループは、主にゼロショット設定における実行可能性を改善し、優れた見本が現れると、限定的な検索ゲインを提供する。
合成計画のためのKG-grounded LLMのさらなる作業を容易にする再現可能なText2Cypher評価設定を提供する。
コードはhttps://github.com/Intelligent-molecular-systems/KG-LLM-Synthesis-Retrievalで入手できる。
関連論文リスト
- KBQA-R1: Reinforcing Large Language Models for Knowledge Base Question Answering [64.62317305868264]
テキスト模倣から強化学習によるインタラクション最適化へパラダイムをシフトするフレームワークである textbfKBQA-R1 を提案する。
KBQAを多ターン決定プロセスとして扱うことで,行動のリストを用いて知識ベースをナビゲートすることを学ぶ。
WebQSP、GrailQA、GraphQuestionsの実験では、KBQA-R1が最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-12-10T17:45:42Z) - Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - SynthesizRR: Generating Diverse Datasets with Retrieval Augmentation [55.2480439325792]
トピック分類,感情分析,トーン検出,ユーモアの6つのデータセットの合成について検討した。
その結果,SynthesizRRは語彙や意味の多様性,人文との類似性,蒸留性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-16T12:22:41Z) - Rescue: Ranking LLM Responses with Partial Ordering to Improve Response Generation [28.89786334298637]
ランキングメトリクスを用いたLCMの最適化手法を開発した。
従来の完全順序付けではなく、部分順序付けを提唱する。
ベンチマークデータセットを用いて,システムの改善された応答生成能力を検証した。
論文 参考訳(メタデータ) (2023-11-15T17:27:14Z) - Revisiting Large Language Models as Zero-shot Relation Extractors [8.953462875381888]
リレーショナル抽出(RE)は、ゼロショット設定下であっても、一定のラベル付きまたはラベルなしのデータを一貫して含む。
近年の研究では、大きな言語モデル(LLM)が、単に自然言語のプロンプトを与えられただけで、新しいタスクにうまく移行していることが示されている。
本研究はゼロショット関係抽出器としてLLMを探索することに焦点を当てる。
論文 参考訳(メタデータ) (2023-10-08T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。