論文の概要: Application Of Large Language Models For The Extraction Of Information From Particle Accelerator Technical Documentation
- arxiv url: http://arxiv.org/abs/2509.02227v1
- Date: Tue, 02 Sep 2025 11:45:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.01469
- Title: Application Of Large Language Models For The Extraction Of Information From Particle Accelerator Technical Documentation
- Title(参考訳): 粒子加速器技術文書からの情報抽出における大規模言語モデルの応用
- Authors: Qing Dai, Rasmus Ischebeck, Maruisz Sapinski, Adam Grycner,
- Abstract要約: 大型言語モデル(LLM)は、粒子加速器の技術文書からの情報の抽出を自動化し、強化するために用いられる。
LLMは、人員の引退に伴う貴重な洞察を失うリスクを著しく低減する。
- 参考スコア(独自算出の注目度): 1.2818384961048421
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The large set of technical documentation of legacy accelerator systems, coupled with the retirement of experienced personnel, underscores the urgent need for efficient methods to preserve and transfer specialized knowledge. This paper explores the application of large language models (LLMs), to automate and enhance the extraction of information from particle accelerator technical documents. By exploiting LLMs, we aim to address the challenges of knowledge retention, enabling the retrieval of domain expertise embedded in legacy documentation. We present initial results of adapting LLMs to this specialized domain. Our evaluation demonstrates the effectiveness of LLMs in extracting, summarizing, and organizing knowledge, significantly reducing the risk of losing valuable insights as personnel retire. Furthermore, we discuss the limitations of current LLMs, such as interpretability and handling of rare domain-specific terms, and propose strategies for improvement. This work highlights the potential of LLMs to play a pivotal role in preserving institutional knowledge and ensuring continuity in highly specialized fields.
- Abstract(参考訳): レガシー・アクセラレーターシステムの大規模な技術文書は、経験豊富な人材の引退と相まって、専門知識の保存と移転のための効率的な方法の緊急の必要性を浮き彫りにしている。
本稿では,粒子加速器技術文書からの情報の抽出を自動化するために,大規模言語モデル(LLM)の適用について検討する。
LLMを活用することで、知識保持の課題に対処し、レガシードキュメントに埋め込まれたドメインの専門知識の検索を可能にする。
この専門領域にLSMを適用する最初の結果を示す。
本評価は,LLMが知識の抽出,要約,整理に有効であることを示し,退職後の貴重な洞察を失うリスクを著しく低減するものである。
さらに,レアドメイン固有の用語の解釈可能性や扱いなど,現在のLLMの限界について論じ,改善のための戦略を提案する。
この研究は、機関知識の保存と高度専門分野の継続性の確保において、LLMが重要な役割を果たす可能性を強調している。
関連論文リスト
- Injecting Domain-Specific Knowledge into Large Language Models: A Comprehensive Survey [45.918134803778834]
大規模言語モデル(LLM)は、自然言語理解、テキスト要約、機械翻訳といった様々なタスクにおいて顕著な成功を収めている。
彼らの汎用的な性質は、医療、化学、法的な分析といった専門的な知識を必要とするドメイン固有のアプリケーションにおいて、その効果を制限していることが多い。
これを解決するために、研究者はドメイン固有の知識を統合することでLLMを強化する様々な方法を模索してきた。
論文 参考訳(メタデータ) (2025-02-15T07:43:43Z) - Leveraging Distillation Techniques for Document Understanding: A Case Study with FLAN-T5 [0.0]
本稿では,LLM ChatGPTから文書理解知識をFLAN-T5に抽出する手法を提案する。
本研究は, 実世界のシナリオにおける高度言語モデルの展開を促進する蒸留技術の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-09-17T15:37:56Z) - Enhancing Question Answering for Enterprise Knowledge Bases using Large Language Models [46.51659135636255]
EKRGは大規模言語モデル(LLM)に基づく新しい検索生成フレームワークである
知識検索者の学習に十分な文書検索ペアを生成するために,LLMを用いた命令チューニング手法を提案する。
我々は、学習過程の効率化を図るために、関連性に敏感な教師学生学習戦略を開発する。
論文 参考訳(メタデータ) (2024-04-10T10:38:17Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。