論文の概要: Towards Secure and Private Language Models for Nuclear Power Plants
- arxiv url: http://arxiv.org/abs/2506.08746v1
- Date: Tue, 10 Jun 2025 12:40:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.460607
- Title: Towards Secure and Private Language Models for Nuclear Power Plants
- Title(参考訳): 原子力発電所の安全・私的言語モデルに向けて
- Authors: Muhammad Anwar, Mishca de Costa, Issam Hammad, Daniel Lau,
- Abstract要約: 本稿では,一般に公開されているEssential CANDU教科書から構築した,原子力応用のためのドメイン固有言語モデルを提案する。
特殊な核ボキャブラリを捉える兆候を示すが、生成したテキストは時に統語的コヒーレンスを欠いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a domain-specific Large Language Model for nuclear applications, built from the publicly accessible Essential CANDU textbook. Drawing on a compact Transformer-based architecture, the model is trained on a single GPU to protect the sensitive data inherent in nuclear operations. Despite relying on a relatively small dataset, it shows encouraging signs of capturing specialized nuclear vocabulary, though the generated text sometimes lacks syntactic coherence. By focusing exclusively on nuclear content, this approach demonstrates the feasibility of in-house LLM solutions that align with rigorous cybersecurity and data confidentiality standards. Early successes in text generation underscore the model's utility for specialized tasks, while also revealing the need for richer corpora, more sophisticated preprocessing, and instruction fine-tuning to enhance domain accuracy. Future directions include extending the dataset to cover diverse nuclear subtopics, refining tokenization to reduce noise, and systematically evaluating the model's readiness for real-world applications in nuclear domain.
- Abstract(参考訳): 本稿では,一般に公開されているEssential CANDU教科書から構築した,原子力応用のためのドメイン固有言語モデルを提案する。
コンパクトなTransformerベースのアーキテクチャに基づいて、モデルは単一のGPU上でトレーニングされ、核操作に固有の機密データを保護する。
比較的小さなデータセットを頼りにしているにもかかわらず、特別な核ボキャブラリをキャプチャする兆候を示すが、生成されたテキストは時に構文的コヒーレンスを欠いている。
このアプローチは、核コンテンツにのみ焦点をあてることで、厳格なサイバーセキュリティとデータ機密基準に適合する社内LLMソリューションの実現可能性を示す。
テキスト生成の初期の成功は、よりリッチなコーパス、より洗練された前処理、ドメインの精度を高めるための命令微調整の必要性を明らかにしながら、特定のタスクに対するモデルの実用性を強調した。
将来的な方向性としては、様々な核のサブトピックをカバーするためにデータセットを拡張し、ノイズを減らすためにトークン化を精錬し、核領域における実際の応用に対するモデルの準備を体系的に評価することが含まれる。
関連論文リスト
- Unlocking the Potential of Large Language Models in the Nuclear Industry with Synthetic Data [0.0]
原子力産業は、構造化されていないテキストデータに隠された貴重な情報を豊富に持っている。
このデータは、先進的なLarge Language Model (LLM)アプリケーションでは簡単には利用できない。
我々は、核産業に固有のデータ不足とプライバシー上の懸念について論じる。
論文 参考訳(メタデータ) (2025-06-10T12:45:12Z) - FrGNet: A fourier-guided weakly-supervised framework for nuclear instance segmentation [0.0]
核インスタンスセグメンテーションは病理画像解析において重要な役割を担っている。
主な課題は、インスタンスを正確にセグメンテーションすることの難しさと、正確なマスクレベルのアノテーションのコストの高さから生じる。
本研究では,弱制御型核インスタンス分割問題を解くための4つのガイダンスフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-14T02:51:25Z) - Encrypted Large Model Inference: The Equivariant Encryption Paradigm [18.547945807599543]
Equivariant Encryption(EE)は,暗号化されたデータに対して,性能上のオーバーヘッドがゼロに近いセキュアな"盲目"推論を可能にするように設計された,新しいパラダイムである。
計算グラフ全体を暗号化する完全同型アプローチとは異なり、EEはニューラルネットワーク層内の重要な内部表現を選択的に難読化する。
EEは高い忠実性とスループットを維持しており、ロバストなデータの機密性と、現代的な大規模モデル推論の厳密な効率要件の間のギャップを効果的に埋めています。
論文 参考訳(メタデータ) (2025-02-03T03:05:20Z) - CTINexus: Automatic Cyber Threat Intelligence Knowledge Graph Construction Using Large Language Models [49.657358248788945]
サイバー脅威インテリジェンス(CTI)レポートのテキスト記述は、サイバー脅威に関する豊富な知識源である。
現在のCTI知識抽出法は柔軟性と一般化性に欠ける。
我々は,データ効率の高いCTI知識抽出と高品質サイバーセキュリティ知識グラフ(CSKG)構築のための新しいフレームワークであるCTINexusを提案する。
論文 参考訳(メタデータ) (2024-10-28T14:18:32Z) - Prompting Encoder Models for Zero-Shot Classification: A Cross-Domain Study in Italian [75.94354349994576]
本稿では,より小型のドメイン固有エンコーダ LM と,特殊なコンテキストにおける性能向上手法の併用の可能性について検討する。
本研究は, イタリアの官僚的・法的言語に焦点をあて, 汎用モデルと事前学習型エンコーダのみのモデルの両方を実験する。
その結果, 事前学習したモデルでは, 一般知識の頑健性が低下する可能性があるが, ドメイン固有のタスクに対して, ゼロショット設定においても, より優れた適応性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-30T08:50:16Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Privacy-preserving machine learning with tensor networks [37.01494003138908]
テンソルネットワークアーキテクチャは、特にプライバシー保護機械学習に期待できる特性を持つことを示す。
まず、フィードフォワードニューラルネットワークに存在する新たなプライバシ脆弱性を説明し、それを合成および実世界のデータセットで説明する。
このような条件がテンソルネットワークアーキテクチャによって満たされていることを厳密に証明する。
論文 参考訳(メタデータ) (2022-02-24T19:04:35Z) - NukeLM: Pre-Trained and Fine-Tuned Language Models for the Nuclear and
Energy Domains [0.0]
BERTアーキテクチャは、モデルがドメイン関連テキストを使用して事前トレーニングされたときに、ドメイン固有のタスクに対してさらに優れたパフォーマンスを示す。
NukeLMは、米国エネルギー省科学技術情報データベースから150万件の抽象化を事前訓練した核ドメイン言語モデルである。
細調整前におけるBERTスタイルアーキテクチャの事前学習は,両項目の分類作業において高い性能を示すことを示す。
論文 参考訳(メタデータ) (2021-05-25T20:00:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。