論文の概要: Perovskite-LLM: Knowledge-Enhanced Large Language Models for Perovskite Solar Cell Research
- arxiv url: http://arxiv.org/abs/2502.12669v1
- Date: Tue, 18 Feb 2025 09:19:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:02:15.272180
- Title: Perovskite-LLM: Knowledge-Enhanced Large Language Models for Perovskite Solar Cell Research
- Title(参考訳): Perovskite-LLM:ペロブスカイト太陽電池研究のための知識強化型大規模言語モデル
- Authors: Xiang Liu, Penglei Sun, Shuyan Chen, Longhan Zhang, Peijie Dong, Huajie You, Yongqi Zhang, Chang Yan, Xiaowen Chu, Tong-yi Zhang,
- Abstract要約: 本稿では,ペロブスカイト太陽電池(PSC)の3つの重要な構成要素を統合する知識強化システムについて述べる。
まず,1,517の論文から構築したドメイン固有知識グラフであるPerovskite-KGを開発した。
次に、Perovskite-ChatとPerovskite-Reasoningという2つの補完的なデータセットを作成します。
第3に、ドメイン固有の知識支援のためのPerovskite-Chat-LLMと科学的推論タスクのためのPerovskite-Reasoning-LLMの2つの専門的な大規模言語モデルを導入する。
- 参考スコア(独自算出の注目度): 12.736027978989807
- License:
- Abstract: The rapid advancement of perovskite solar cells (PSCs) has led to an exponential growth in research publications, creating an urgent need for efficient knowledge management and reasoning systems in this domain. We present a comprehensive knowledge-enhanced system for PSCs that integrates three key components. First, we develop Perovskite-KG, a domain-specific knowledge graph constructed from 1,517 research papers, containing 23,789 entities and 22,272 relationships. Second, we create two complementary datasets: Perovskite-Chat, comprising 55,101 high-quality question-answer pairs generated through a novel multi-agent framework, and Perovskite-Reasoning, containing 2,217 carefully curated materials science problems. Third, we introduce two specialized large language models: Perovskite-Chat-LLM for domain-specific knowledge assistance and Perovskite-Reasoning-LLM for scientific reasoning tasks. Experimental results demonstrate that our system significantly outperforms existing models in both domain-specific knowledge retrieval and scientific reasoning tasks, providing researchers with effective tools for literature review, experimental design, and complex problem-solving in PSC research.
- Abstract(参考訳): ペロブスカイト太陽電池(PSC)の急速な進歩は、研究出版物の指数的な成長をもたらし、この領域における効率的な知識管理と推論システムへの緊急なニーズを生み出している。
本稿では,3つの重要なコンポーネントを統合したPSCのための包括的知識強化システムを提案する。
まず,1,517個の研究論文から構築したドメイン固有知識グラフであるPerovskite-KGを開発し,23,789個のエンティティと22,272個の関係性を持つ。
第2に、新しいマルチエージェントフレームワークによって生成される55,101の高品質な質問応答ペアからなるPerovskite-Chatと、2,217の慎重にキュレートされた材料科学問題を含むPerovskite-Reasoningの2つの補完データセットを作成する。
第3に、ドメイン固有の知識支援のためのPerovskite-Chat-LLMと科学的推論タスクのためのPerovskite-Reasoning-LLMの2つの専門的な大規模言語モデルを導入する。
実験の結果,本システムはドメイン固有の知識検索と科学的推論タスクの両方において既存のモデルよりも優れており,文献レビュー,実験設計,複雑問題解決に有効なツールを研究者に提供する。
関連論文リスト
- Boost, Disentangle, and Customize: A Robust System2-to-System1 Pipeline for Code Generation [58.799397354312596]
大規模言語モデル(LLM)は、様々な領域、特にシステム1タスクにおいて顕著な機能を示した。
System2-to-System1法に関する最近の研究が急増し、推論時間計算によるシステム2の推論知識が探索された。
本稿では,システム2タスクの代表的タスクであるコード生成に注目し,主な課題を2つ挙げる。
論文 参考訳(メタデータ) (2025-02-18T03:20:50Z) - Large Language Models for Scholarly Ontology Generation: An Extensive Analysis in the Engineering Field [0.0]
本稿では,異なる研究トピック間の意味的関係を識別する大規模モデルの能力について分析する。
我々はそのタスクを評価するためにIEEE Thesaurusに基づく金の標準を開発した。
Mixtral-8x7B、Dolphin-Mistral、Claude 3-7Bなど、いくつかの優れた結果が得られた。
論文 参考訳(メタデータ) (2024-12-11T10:11:41Z) - SciAgents: Automating scientific discovery through multi-agent intelligent graph reasoning [0.0]
人工知能の鍵となる課題は、科学的理解を自律的に進めるシステムを作ることである。
3つのコア概念を活用するアプローチであるSciAgentsを提案する。
この枠組みは研究仮説を自律的に生成し、基礎となるメカニズム、設計原則、予期せぬ材料特性を解明する。
我々のケーススタディでは、生成AI、オントロジ表現、マルチエージェントモデリングを組み合わせて、生物学的システムに似た知能の群を活用できるスケーラブルな能力を実証している。
論文 参考訳(メタデータ) (2024-09-09T12:25:10Z) - BioRAG: A RAG-LLM Framework for Biological Question Reasoning [14.05505988436551]
本稿では,Large Language Models (LLMs) フレームワークを組み込んだ新規な検索拡張生成(RAG)であるBioRAGを紹介する。
このアプローチは、基本的な知識として2200万の科学論文を解析、索引付け、セグメント化することから始まり、続いて、このドメインに適した特別な埋め込みモデルをトレーニングします。
最新の情報を必要とするクエリに対して、BioRAGは質問を分解し、検索エンジンに組み込まれた反復的な検索プロセスを用いてステップバイステップの推論を行う。
論文 参考訳(メタデータ) (2024-08-02T08:37:03Z) - SciDMT: A Large-Scale Corpus for Detecting Scientific Mentions [52.35520385083425]
SciDMTは,科学的言及検出のための拡張および拡張されたコーパスである。
コーパスは,1)SciDMTの主コーパスは8万4千件の科学的論文と8百万件以上の弱い注釈付き言及アノテーションと,2)評価目的のために手作業で注釈付けされた100件の科学的論文からなる評価セットから構成される。
論文 参考訳(メタデータ) (2024-06-20T22:03:21Z) - M-QALM: A Benchmark to Assess Clinical Reading Comprehension and Knowledge Recall in Large Language Models via Question Answering [14.198330378235632]
我々は,3つのジェネラリストと3つの専門的なバイオメディカルサブドメインにおいて,22のデータセットに関する大規模な実験研究を行うために,複数選択と抽象質問応答を用いた。
15個のLLMの性能の多面的解析により、リコールや理解の向上につながる命令チューニングなどの成功要因が明らかになった。
最近提案されたドメイン適応モデルには十分な知識が欠如している可能性があるが、収集した医療知識データセットを直接微調整することは、奨励的な結果を示している。
我々は、必要な知識を単に思い出し、提示された知識と統合するモデルの能力の間に大きなギャップがあることを明らかにする、スキル指向手動エラー解析で定量的結果を補完する。
論文 参考訳(メタデータ) (2024-06-06T02:43:21Z) - SciQAG: A Framework for Auto-Generated Science Question Answering Dataset with Fine-grained Evaluation [11.129800893611646]
SciQAGは、大規模言語モデル(LLM)に基づく科学文献の大規模なコーパスから高品質な科学質問応答ペアを自動生成するフレームワークである。
我々は,24分野にわたる22,743の科学論文から抽出された188,042のQAペアを含む大規模で高品質な科学QAデータセットを構築した。
SciQAG-24DはLLMの科学質問応答能力を評価するための新しいベンチマークタスクである。
論文 参考訳(メタデータ) (2024-05-16T09:42:37Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Dual Semantic Knowledge Composed Multimodal Dialog Systems [114.52730430047589]
本稿では,MDS-S2という新しいマルチモーダルタスク指向対話システムを提案する。
コンテキスト関連属性と関係知識を知識ベースから取得する。
また、合成された応答表現から意味情報を抽出するために、潜在クエリ変数のセットを考案する。
論文 参考訳(メタデータ) (2023-05-17T06:33:26Z) - Artificial Intelligence in Concrete Materials: A Scientometric View [77.34726150561087]
本章は, コンクリート材料用AI研究の主目的と知識構造を明らかにすることを目的としている。
まず、1990年から2020年にかけて発行された389の雑誌記事が、ウェブ・オブ・サイエンスから検索された。
キーワード共起分析やドキュメント共起分析などのサイエントメトリックツールを用いて,研究分野の特徴と特徴を定量化した。
論文 参考訳(メタデータ) (2022-09-17T18:24:56Z) - Extracting a Knowledge Base of Mechanisms from COVID-19 Papers [50.17242035034729]
我々はメカニズムの知識ベース(KB)の構築を追求する。
我々は、妥当性と幅のバランスをとる広範で統一されたスキーマを開発する。
実験は、新型コロナウイルスの文献に関する学際的な科学的検索を支援するためのKBの有用性を実証する。
論文 参考訳(メタデータ) (2020-10-08T07:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。