論文の概要: Classification of Safety Events at Nuclear Sites using Large Language Models
- arxiv url: http://arxiv.org/abs/2409.00091v1
- Date: Mon, 26 Aug 2024 08:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-08 15:11:32.927527
- Title: Classification of Safety Events at Nuclear Sites using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた原子力施設の安全事象の分類
- Authors: Mishca de Costa, Muhammad Anwar, Daniel Lau, Issam Hammad,
- Abstract要約: 本稿では,原子力発電所のステーション条件レコード(SCR)を安全関連・非安全関連カテゴリに分類する機械学習分類器の開発を提案する。
主な目的は、原子力発電所の安全分類プロセスの効率性と正確性を高めることにより、既存の手動レビュープロセスを強化することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes the development of a Large Language Model (LLM) based machine learning classifier designed to categorize Station Condition Records (SCRs) at nuclear power stations into safety-related and non-safety-related categories. The primary objective is to augment the existing manual review process by enhancing the efficiency and accuracy of the safety classification process at nuclear stations. The paper discusses experiments performed to classify a labeled SCR dataset and evaluates the performance of the classifier. It explores the construction of several prompt variations and their observed effects on the LLM's decision-making process. Additionally, it introduces a numerical scoring mechanism that could offer a more nuanced and flexible approach to SCR safety classification. This method represents an innovative step in nuclear safety management, providing a scalable tool for the identification of safety events.
- Abstract(参考訳): 本稿では,原子力発電所のステーション条件レコード(SCR)を安全関連・非安全関連カテゴリに分類する大規模言語モデル(LLM)に基づく機械学習分類器の開発を提案する。
主な目的は、原子力発電所の安全分類プロセスの効率性と正確性を高めることにより、既存の手動レビュープロセスを強化することである。
本稿では,ラベル付きSCRデータセットを分類するための実験を行い,分類器の性能を評価する。
LLMの意思決定プロセスにいくつかの急激なバリエーションとそれらの観察結果が与える影響について検討する。
さらに、SCRの安全性分類に対するよりニュアンスで柔軟なアプローチを提供する数値スコアリング機構も導入されている。
この方法は、原子力安全管理における革新的なステップであり、安全事象を識別するためのスケーラブルなツールを提供する。
関連論文リスト
- Active Learning for Robust and Representative LLM Generation in Safety-Critical Scenarios [32.16984263644299]
大きな言語モデル(LLM)は、安全対策のための貴重なデータを生成することができるが、しばしば分布バイアスを示す。
LLM生成を導くために,アクティブラーニングとクラスタリングを統合した新しいフレームワークを提案する。
この結果から,提案フレームワークは,基礎となるデータ分布の事前知識を必要とせずに,より代表的な安全シナリオを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-10-14T21:48:14Z) - Superficial Safety Alignment Hypothesis [8.297367440457508]
本稿では,安全アライメントが安全でないモデルに正しい推論方向を選択するよう教えるべきであるとする,表向きの安全アライメント仮説(SSAH)を提案する。
安全に整合した大言語モデル(LLM)における属性クリティカルな4つのコンポーネントを同定する。
本研究は,特定の安全クリティカル成分の凍結を微調整中に行うことにより,新しい作業に適応しつつ,その安全性特性を維持できることを示した。
論文 参考訳(メタデータ) (2024-10-07T19:53:35Z) - Confidence-aware Contrastive Learning for Selective Classification [20.573658672018066]
この研究は、選択分類のための一般化を提供し、特徴層を最適化することで選択分類の性能を向上させることを開示する。
この理論に触発されて、我々は初めて特徴レベルで選択的分類モデルを明確に改善することを提案し、新たに選択的分類のための信頼を意識したコントラスト学習手法であるCCL-SCを提案する。
論文 参考訳(メタデータ) (2024-06-07T08:43:53Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Safety-Critical Scenario Generation Via Reinforcement Learning Based
Editing [20.99962858782196]
本稿では,逐次編集による安全クリティカルなシナリオを生成する深層強化学習手法を提案する。
我々のフレームワークは、リスクと妥当性の両方の目的からなる報酬関数を用いています。
提案手法は, 従来手法と比較して, 品質の高い安全クリティカルなシナリオを生成することを示す。
論文 参考訳(メタデータ) (2023-06-25T05:15:25Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - A Hybrid Data-Driven Multi-Stage Deep Learning Framework for Enhanced Nuclear Reactor Power Prediction [0.4166512373146748]
本稿では,リアクトル過渡期の最終定常電力を予測するための,新しい多段階深層学習フレームワークを提案する。
我々は、分類段階と回帰段階の両方のフィードフォワードニューラルネットワークを使用し、リアクトルパワーの実環境計測と制御状態を統合したユニークなデータセットをトレーニングする。
ノイズを伴うシミュレーションデータの取り込みにより、モデルの一般化能力が大幅に向上し、オーバーフィッティングのリスクが軽減される。
論文 参考訳(メタデータ) (2022-11-23T17:32:52Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。