論文の概要: aLLoyM: A large language model for alloy phase diagram prediction
- arxiv url: http://arxiv.org/abs/2507.22558v1
- Date: Wed, 30 Jul 2025 10:32:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.152648
- Title: aLLoyM: A large language model for alloy phase diagram prediction
- Title(参考訳): aLLoyM:合金相図予測のための大規模言語モデル
- Authors: Yuna Oikawa, Guillaume Deffrennes, Taichi Abe, Ryo Tamura, Koji Tsuda,
- Abstract要約: 本稿では,合金組成,温度,およびそれに対応する位相情報に特化して訓練された,微調整大言語モデル (LLM) であるaLLoyMを紹介する。
我々は、オープンソースの事前学習型LLMであるMistralを、複数選択と短問合せの2つの異なるQ&Aフォーマット向けに微調整した。
ベンチマーク評価は、微調整が多点相図問題の性能を大幅に向上させることを示した。
- 参考スコア(独自算出の注目度): 1.045661264013178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are general-purpose tools with wide-ranging applications, including in materials science. In this work, we introduce aLLoyM, a fine-tuned LLM specifically trained on alloy compositions, temperatures, and their corresponding phase information. To develop aLLoyM, we curated question-and-answer (Q&A) pairs for binary and ternary phase diagrams using the open-source Computational Phase Diagram Database (CPDDB) and assessments based on CALPHAD (CALculation of PHAse Diagrams). We fine-tuned Mistral, an open-source pre-trained LLM, for two distinct Q&A formats: multiple-choice and short-answer. Benchmark evaluations demonstrate that fine-tuning substantially enhances performance on multiple-choice phase diagram questions. Moreover, the short-answer model of aLLoyM exhibits the ability to generate novel phase diagrams from its components alone, underscoring its potential to accelerate the discovery of previously unexplored materials systems. To promote further research and adoption, we have publicly released the short-answer fine-tuned version of aLLoyM, along with the complete benchmarking Q&A dataset, on Hugging Face.
- Abstract(参考訳): LLM(Large Language Models)は、材料科学を含む幅広い応用のための汎用ツールである。
本研究では,合金組成,温度,およびそれに対応する相情報を専門に訓練した微調整LDMであるaLLoyMを紹介する。
aLLoyM を開発するために,オープンソースの計算位相図データベース (CPDDB) と CALPHAD (CALculation of PHAse Diagrams) に基づく2次および3次フェーズ図の問合せ (Q&A) ペアをキュレートした。
我々は、オープンソースの事前学習型LLMであるMistralを、複数選択と短問合せの2つの異なるQ&Aフォーマット向けに微調整した。
ベンチマーク評価は、微調整が多点相図問題の性能を大幅に向上させることを示した。
さらに、aLLoyMのショートアンサーモデルは、コンポーネントのみから新しいフェーズダイアグラムを生成する能力を示し、これまで探索されていなかった物質系の発見を加速する可能性を示している。
さらなる研究と採用を促進するため、Hugging Faceで完全なベンチマークQ&Aデータセットとともに、aLLoyMのショートアンサーの微調整バージョンを公開しました。
関連論文リスト
- Chart-HQA: A Benchmark for Hypothetical Question Answering in Charts [62.45232157149698]
本稿では,同じ質問に対して仮定を課し,グラフの内容に基づいた反実的推論を行うようモデルに強制する,新しいChart hypothetical Question Answering (HQA)タスクを提案する。
さらに,MLLMの効率的なテキスト編集機能と人間の知識を併用して,多種多様な高品質HQAデータを低コストで生成する,人間とAIの対話型データ合成手法であるHAIを導入する。
論文 参考訳(メタデータ) (2025-03-06T05:08:40Z) - Advancing Multimodal Large Language Models in Chart Question Answering with Visualization-Referenced Instruction Tuning [1.6570772838074355]
マルチモーダル大言語モデル(MLLM)は、チャート質問応答(CQA)に大きな可能性を示す
近年の取り組みは、データ収集と合成によるデータセットのスケールアップに重点を置いている。
本稿では,トレーニングデータセットの強化とモデル開発を指導するための,可視化参照型指導チューニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T17:04:34Z) - IDEAL: Leveraging Infinite and Dynamic Characterizations of Large Language Models for Query-focused Summarization [59.06663981902496]
クエリ中心の要約(QFS)は、特定の関心事に答え、より優れたユーザ制御とパーソナライゼーションを可能にする要約を作成することを目的としている。
本稿では,LLMを用いたQFSモデル,Longthy Document Summarization,およびクエリ-LLMアライメントの2つの重要な特徴について検討する。
これらのイノベーションは、QFS技術分野における幅広い応用とアクセシビリティの道を開いた。
論文 参考訳(メタデータ) (2024-07-15T07:14:56Z) - Learning to Plan for Retrieval-Augmented Large Language Models from Knowledge Graphs [59.76268575344119]
知識グラフ(KG)から得られた計画データを用いて,大規模言語モデル(LLM)計画能力を向上するための新しいフレームワークを提案する。
KGデータで微調整されたLLMは、計画能力を向上し、検索を含む複雑なQAタスクを処理するのがより適している。
論文 参考訳(メタデータ) (2024-06-20T13:07:38Z) - Synthesize Step-by-Step: Tools, Templates and LLMs as Data Generators for Reasoning-Based Chart VQA [9.659820850719413]
我々は,推論能力の強い大規模言語モデル(LLM)を自動データアノテータとして活用する。
私たちの方法における重要な革新は、Synthesize Step-by-Step戦略にあります。
我々は、チャートVQAモデルを大幅に強化し、ChartQAおよびPlotQAデータセットの最先端の精度を達成する。
論文 参考訳(メタデータ) (2024-03-25T03:02:27Z) - AQA-Bench: An Interactive Benchmark for Evaluating LLMs' Sequential Reasoning Ability [25.96556671801114]
本稿では,大規模言語モデル(LLM)の逐次推論能力を評価する新しいベンチマークであるAQA-Benchを紹介する。
AQA-Benchを2進探索,深さ優先探索,幅優先探索という3つのアルゴリズムで構築し,14種類のLLMの逐次推論能力を評価する。
論文 参考訳(メタデータ) (2024-02-14T18:59:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。