論文の概要: Trusted Knowledge Extraction for Operations and Maintenance Intelligence
- arxiv url: http://arxiv.org/abs/2507.22935v1
- Date: Thu, 24 Jul 2025 17:36:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:08.310849
- Title: Trusted Knowledge Extraction for Operations and Maintenance Intelligence
- Title(参考訳): 運用・保守インテリジェンスのための信頼された知識抽出
- Authors: Kathleen Mealey, Jonathan A. Karr Jr., Priscila Saboia Moreira, Paul R. Brenner, Charles F. Vardeman II,
- Abstract要約: 航空機産業における信頼性の高いアプリケーションのための運用および保守インテリジェンスユースケースに焦点をあてる。
ベースラインデータセットは、機器の故障やメンテナンス要件に焦点を当てた、リッチなパブリックドメインの米国連邦航空局(Federal Aviation Administration)データセットに由来する。
制御された秘密環境下で動作可能なNLPおよびLCMツールのゼロショット性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deriving operational intelligence from organizational data repositories is a key challenge due to the dichotomy of data confidentiality vs data integration objectives, as well as the limitations of Natural Language Processing (NLP) tools relative to the specific knowledge structure of domains such as operations and maintenance. In this work, we discuss Knowledge Graph construction and break down the Knowledge Extraction process into its Named Entity Recognition, Coreference Resolution, Named Entity Linking, and Relation Extraction functional components. We then evaluate sixteen NLP tools in concert with or in comparison to the rapidly advancing capabilities of Large Language Models (LLMs). We focus on the operational and maintenance intelligence use case for trusted applications in the aircraft industry. A baseline dataset is derived from a rich public domain US Federal Aviation Administration dataset focused on equipment failures or maintenance requirements. We assess the zero-shot performance of NLP and LLM tools that can be operated within a controlled, confidential environment (no data is sent to third parties). Based on our observation of significant performance limitations, we discuss the challenges related to trusted NLP and LLM tools as well as their Technical Readiness Level for wider use in mission-critical industries such as aviation. We conclude with recommendations to enhance trust and provide our open-source curated dataset to support further baseline testing and evaluation.
- Abstract(参考訳): 組織データリポジトリから運用インテリジェンスを引き出すことは、データ機密とデータ統合の目的の分離、およびオペレーションやメンテナンスといったドメインの特定の知識構造に対する自然言語処理(NLP)ツールの制限による重要な課題である。
本稿では、知識グラフの構築と知識抽出プロセスを、その名前付きエンティティ認識、参照解決、名前付きエンティティリンク、関係抽出機能コンポーネントに分解する。
次に,Large Language Models (LLMs) の急速に進歩する機能と比較して,16のNLPツールを評価した。
航空機産業における信頼性の高いアプリケーションのための運用および保守インテリジェンスユースケースに焦点を当てる。
ベースラインデータセットは、機器の故障やメンテナンス要件に焦点を当てた、リッチなパブリックドメインの米国連邦航空局(Federal Aviation Administration)データセットに由来する。
制御された機密環境で操作できるNLPおよびLCMツールのゼロショット性能を評価する(サードパーティにデータを送信することはない)。
航空等のミッションクリティカルな産業において,信頼性の高いNLPおよびLLMツールと技術レディネスレベルに関する課題について検討した。
信頼性を高め、さらなるベースラインテストと評価をサポートするためにオープンソースのキュレートデータセットを提供することを推奨します。
関連論文リスト
- Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは、表現空間内の高レベル認知信号をキャプチャすることで、メタ認知スコアを定量化する。
MeCoは微調整不要で、最小限のコストがかかる。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - Towards Human-Guided, Data-Centric LLM Co-Pilots [53.35493881390917]
CliMB-DCは、機械学習コパイロットのための、ヒューマンガイド付き、データ中心のフレームワークである。
高度なデータ中心ツールとLLM駆動推論を組み合わせることで、堅牢でコンテキスト対応のデータ処理を可能にする。
CliMB-DCが未処理のデータセットをML対応フォーマットに変換する方法を示す。
論文 参考訳(メタデータ) (2025-01-17T17:51:22Z) - ToolBridge: An Open-Source Dataset to Equip LLMs with External Tool Capabilities [43.232034005763005]
本稿では、言語モデルに外部ツールの活用方法を学ぶためのデータセット構築に関する詳細なプロセスを明らかにすることを目的とする。
ToolBridgeは、一般的なオープンアクセスデータセットの集合を生データセットプールとして使用することを提案している。
これらのキュレートされたデータエントリの微調整を監督することにより、LLMは予測精度を高めるために、適切なコンテキストで外部ツールを呼び出すことができる。
論文 参考訳(メタデータ) (2024-10-08T20:54:40Z) - Learning to Ask: When LLM Agents Meet Unclear Instruction [55.65312637965779]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - Assessing the Performance of Chinese Open Source Large Language Models in Information Extraction Tasks [12.400599440431188]
自然言語処理(NLP)における情報抽出(IE)の役割
英語IEタスクに焦点をあてた最近の実験は、LLM(Large Language Models)が最適性能を達成する上で直面する課題に光を当てている。
論文 参考訳(メタデータ) (2024-06-04T08:00:40Z) - DeepFMEA -- A Scalable Framework Harmonizing Process Expertise and Data-Driven PHM [0.0]
ほとんどの産業環境では、データは量的に制限され、その品質は矛盾することがある。
このギャップを埋めるために、成功する工業化PHMツールは、以前のドメイン専門知識の導入に依存している。
DeepFMEAは、あらゆる技術的システムを分析するための構造化アプローチにおいて、FMEA(Failure Mode and Effects Analysis)からインスピレーションを得ている。
論文 参考訳(メタデータ) (2024-05-13T09:41:34Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - ChatSOS: LLM-based knowledge Q&A system for safety engineering [0.0]
本研究では,LLMに基づく安全工学のQ&Aシステムを導入し,モデルの理解と応答精度を向上させる。
我々は、外部知識データベースを組み込むために、即時エンジニアリングを採用し、LLMを最新かつ信頼性の高い情報で強化する。
以上の結果から,外部知識の統合は,奥行き問題解析や自律的なタスク割り当てにおいて,LLMの能力を大幅に向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-14T03:25:23Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Thrust: Adaptively Propels Large Language Models with External Knowledge [69.50273822565363]
大規模事前学習言語モデル(PTLM)は、モデルパラメータの豊富な知識を符号化する。
PTLMの固有の知識は不透明または静的であり、外部の知識を必要とする。
本稿では,外部知識のインスタンスレベル適応推進(IAPEK)を提案する。
論文 参考訳(メタデータ) (2023-07-19T20:16:46Z) - Extracting Semantics from Maintenance Records [0.2578242050187029]
保守記録から名前付きエンティティ認識を抽出する3つの手法を開発した。
我々は、構文規則と意味に基づくアプローチと、事前学習された言語モデルを活用するアプローチを開発する。
実世界の航空整備記録データを用いた評価の結果,有望な結果が得られた。
論文 参考訳(メタデータ) (2021-08-11T21:23:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。