論文の概要: A Knowledge-Informed Large Language Model Framework for U.S. Nuclear Power Plant Shutdown Initiating Event Classification for Probabilistic Risk Assessment
- arxiv url: http://arxiv.org/abs/2410.00929v1
- Date: Mon, 30 Sep 2024 20:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 00:09:47.557182
- Title: A Knowledge-Informed Large Language Model Framework for U.S. Nuclear Power Plant Shutdown Initiating Event Classification for Probabilistic Risk Assessment
- Title(参考訳): 確率的リスク評価のための事象分類を開始する米国の原子力発電所閉鎖のための知識情報型大規模言語モデルフレームワーク
- Authors: Min Xian, Tao Wang, Sai Zhang, Fei Xu, Zhegang Ma,
- Abstract要約: 本研究では,知識インフォームド・機械学習・モードを組み込んで非SDIEをプリスクリーンするハイブリッド・パイプラインと,SDIEを4つのタイプに分類する大規模言語モデル(LLM)を提案する。
提案手法は,精度,リコール率,F1スコア,平均精度を用いて,10,928イベントのデータセットを用いて評価した。
- 参考スコア(独自算出の注目度): 6.200373536860575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying and classifying shutdown initiating events (SDIEs) is critical for developing low power shutdown probabilistic risk assessment for nuclear power plants. Existing computational approaches cannot achieve satisfactory performance due to the challenges of unavailable large, labeled datasets, imbalanced event types, and label noise. To address these challenges, we propose a hybrid pipeline that integrates a knowledge-informed machine learning mode to prescreen non-SDIEs and a large language model (LLM) to classify SDIEs into four types. In the prescreening stage, we proposed a set of 44 SDIE text patterns that consist of the most salient keywords and phrases from six SDIE types. Text vectorization based on the SDIE patterns generates feature vectors that are highly separable by using a simple binary classifier. The second stage builds Bidirectional Encoder Representations from Transformers (BERT)-based LLM, which learns generic English language representations from self-supervised pretraining on a large dataset and adapts to SDIE classification by fine-tuning it on an SDIE dataset. The proposed approaches are evaluated on a dataset with 10,928 events using precision, recall ratio, F1 score, and average accuracy. The results demonstrate that the prescreening stage can exclude more than 97% non-SDIEs, and the LLM achieves an average accuracy of 93.4% for SDIE classification.
- Abstract(参考訳): 原子力プラントの低電力停止確率的リスクアセスメントを開発するためには,SDIEの特定と分類が重要である。
既存の計算手法では、大きなラベル付きデータセット、不均衡なイベントタイプ、ラベルノイズといった課題のため、十分な性能を達成できない。
これらの課題に対処するために、知識インフォームド機械学習モードを統合して非SDIEをプリスクリーンするハイブリッドパイプラインと、SDIEを4つのタイプに分類する大規模言語モデル(LLM)を提案する。
事前スクリーニングの段階では、6種類のSDIEのキーワードとフレーズからなる44のSDIEテキストパターンを提案する。
SDIEパターンに基づくテキストベクトル化は、単純なバイナリ分類器を用いて高度に分離可能な特徴ベクトルを生成する。
第2ステージでは、Transformers (BERT) ベースの LLM による双方向エンコーダ表現(Bidirectional Encoder Representations) が構築されている。これは、大規模なデータセット上で自己教師付き事前学習から汎用的な英語表現を学び、SDIEデータセットでそれを微調整することでSDIE分類に適応する。
提案手法は,精度,リコール率,F1スコア,平均精度を用いて,10,928イベントのデータセットを用いて評価した。
その結果、プレスクリーニングステージはSDIEの97%以上の非SDIEを除外でき、LSMはSDIE分類の平均精度93.4%を達成した。
関連論文リスト
- Beyond Exact Match: Semantically Reassessing Event Extraction by Large Language Models [69.38024658668887]
イベント抽出の現在の評価法はトークンレベルの正確な一致に依存している。
トークンレベルではなくセマンティックレベルでイベント抽出結果を正確に評価する自動評価フレームワークであるRAEEを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:54:01Z) - Pretraining Data Detection for Large Language Models: A Divergence-based Calibration Method [108.56493934296687]
本研究では,乱数から発散する概念に触発された偏差に基づくキャリブレーション手法を導入し,プリトレーニングデータ検出のためのトークン確率のキャリブレーションを行う。
我々は,中国語テキスト上でのLLMの検出手法の性能を評価するために,中国語のベンチマークであるPatentMIAを開発した。
論文 参考訳(メタデータ) (2024-09-23T07:55:35Z) - OV-DINO: Unified Open-Vocabulary Detection with Language-Aware Selective Fusion [88.59397418187226]
我々はOV-DINOと呼ばれる新しいオープン語彙検出手法を提案する。
言語対応の選択的融合を統一フレームワークに組み込んだ、さまざまな大規模データセットで事前トレーニングされている。
提案するOV-DINOのオープン語彙検出ベンチマークにおける性能評価を行った。
論文 参考訳(メタデータ) (2024-07-10T17:05:49Z) - Improved Out-of-Scope Intent Classification with Dual Encoding and Threshold-based Re-Classification [6.975902383951604]
現在の手法は、予測不可能なアウトリーチ分布で困難に直面している。
本稿では,これらの課題に対処するため,Dual for Threshold-Based Re-Classification (DETER)を提案する。
我々のモデルは以前のベンチマークより優れており、未知のインテントに対するF1スコアの13%と5%に向上しています。
論文 参考訳(メタデータ) (2024-05-30T11:46:42Z) - Feature Fusion for Improved Classification: Combining Dempster-Shafer Theory and Multiple CNN Architectures [1.0678175996321808]
本稿では、DST(Dempster-Shafer Theory)を利用して、複数の事前学習モデルを統合し、より信頼性が高く拡張された分類を提供するアンサンブルを形成する新しいアルゴリズムを提案する。
CIFAR-10とCIFAR-100データセットでいくつかの実験が行われ、提案したDST法より優れた分類精度が示された。
論文 参考訳(メタデータ) (2024-05-23T20:44:10Z) - TeLeS: Temporal Lexeme Similarity Score to Estimate Confidence in
End-to-End ASR [1.8477401359673709]
クラス確率に基づく信頼スコアは、自信過剰なASR予測の品質を正確に表すものではない。
信頼度推定モデル(CEM)を訓練するためのTeLeS(Temporal-Lexeme similarity)の信頼性スコアを提案する。
我々は、ヒンディー語、タミル語、カナダ語という3つの言語で訓練されたASRモデルを用いて、様々なトレーニングデータサイズで実験を行う。
論文 参考訳(メタデータ) (2024-01-06T16:29:13Z) - A Meta-Learning Approach to Predicting Performance and Data Requirements [163.4412093478316]
本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則が,小さなデータセットを使用する場合の誤差が大きいことが判明した。
本稿では,2つのデータを異なる方法で処理するPPL法について紹介する。
論文 参考訳(メタデータ) (2023-03-02T21:48:22Z) - ASR in German: A Detailed Error Analysis [0.0]
この研究は、ドイツ語で事前訓練されたASRモデルアーキテクチャの選択を示し、様々なテストデータセットのベンチマークで評価する。
クロスアーキテクチャの予測エラーを特定し、それらをカテゴリに分類し、カテゴリ毎のエラーソースをトレーニングデータにトレースする。
論文 参考訳(メタデータ) (2022-04-12T08:25:01Z) - From Good to Best: Two-Stage Training for Cross-lingual Machine Reading
Comprehension [51.953428342923885]
モデル性能を向上させるための2段階のアプローチを開発する。
我々は、トップk予測が正確な答えを含む確率を最大化するために、ハードラーニング(HL)アルゴリズムを設計する。
第2段階では, 正解と他の候補との微妙な違いを学習するために, 解答を意識したコントラスト学習機構が開発された。
論文 参考訳(メタデータ) (2021-12-09T07:31:15Z) - Robust Event Classification Using Imperfect Real-world PMU Data [58.26737360525643]
本研究では,不完全な実世界のファサー計測単位(PMU)データを用いて,ロバストな事象分類について検討する。
我々は、堅牢なイベント分類器を訓練するための新しい機械学習フレームワークを開発する。
論文 参考訳(メタデータ) (2021-10-19T17:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。