論文の概要: SafeLLM: Domain-Specific Safety Monitoring for Large Language Models: A Case Study of Offshore Wind Maintenance
- arxiv url: http://arxiv.org/abs/2410.10852v1
- Date: Sun, 06 Oct 2024 13:00:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-20 09:41:09.458085
- Title: SafeLLM: Domain-Specific Safety Monitoring for Large Language Models: A Case Study of Offshore Wind Maintenance
- Title(参考訳): SafeLLM:大規模言語モデルのドメイン特有な安全モニタリング:オフショア風の保守を事例として
- Authors: Connor Walker, Callum Rothon, Koorosh Aslansefat, Yiannis Papadopoulos, Nina Dethlefs,
- Abstract要約: 本稿では,Large Language Models (LLMs) に着目して,この課題に対処する革新的なアプローチを提案する。
本稿では,幻覚の検出とフィルタリングのための文間距離を統計的に計算するための対話エージェントを提案する。
- 参考スコア(独自算出の注目度): 0.6116681488656472
- License:
- Abstract: The Offshore Wind (OSW) industry is experiencing significant expansion, resulting in increased Operations \& Maintenance (O\&M) costs. Intelligent alarm systems offer the prospect of swift detection of component failures and process anomalies, enabling timely and precise interventions that could yield reductions in resource expenditure, as well as scheduled and unscheduled downtime. This paper introduces an innovative approach to tackle this challenge by capitalising on Large Language Models (LLMs). We present a specialised conversational agent that incorporates statistical techniques to calculate distances between sentences for the detection and filtering of hallucinations and unsafe output. This potentially enables improved interpretation of alarm sequences and the generation of safer repair action recommendations by the agent. Preliminary findings are presented with the approach applied to ChatGPT-4 generated test sentences. The limitation of using ChatGPT-4 and the potential for enhancement of this agent through re-training with specialised OSW datasets are discussed.
- Abstract(参考訳): オフショア・ウィンド(OSW)産業は大幅に拡大しており、オペレーティング・アンド・メンテナンス(O\&M)コストが増大している。
インテリジェントアラームシステムは、コンポーネントの障害やプロセスの異常を迅速に検出し、リソース支出の削減やスケジュールや予定外のダウンタイムをもたらす可能性のある、タイムリーで正確な介入を可能にする。
本稿では,Large Language Models (LLMs) を用いて,この課題に対処する革新的なアプローチを提案する。
本稿では,幻覚の検出とフィルタリングのための文間距離を統計的に計算するための対話エージェントを提案する。
これにより、アラームシーケンスの解釈が改善され、エージェントによるより安全な修復アクションレコメンデーションが生成される可能性がある。
ChatGPT-4 生成試験文に適用し,予備的な知見を得た。
本稿では、ChatGPT-4の使用制限と、OSWデータセットによる再トレーニングによるエージェントの強化の可能性について論じる。
関連論文リスト
- Enhancing AI Safety Through the Fusion of Low Rank Adapters [7.384556630042846]
低ランク適応核融合は、悪意のあるプロンプトに直面した場合に有害な応答を緩和する。
タスクアダプタと安全アダプタとのLoRA融合を利用して, 有害度率を42%低減した。
また、モデルが安全でないものに近い安全なプロンプトを拒否する、誇張された安全行動も観察する。
論文 参考訳(メタデータ) (2024-12-30T13:12:27Z) - Code-as-Monitor: Constraint-aware Visual Programming for Reactive and Proactive Robotic Failure Detection [56.66677293607114]
オープンセットのリアクティブかつアクティブな障害検出のためのCode-as-Monitor(CaM)を提案する。
モニタリングの精度と効率を高めるために,制約関連エンティティを抽象化する制約要素を導入する。
実験により、CaMは28.7%高い成功率を達成し、厳しい乱れの下で実行時間を31.8%短縮することが示された。
論文 参考訳(メタデータ) (2024-12-05T18:58:27Z) - Leveraging Conversational Generative AI for Anomaly Detection in Digital Substations [0.0]
提案したADフレームワークとHITLベースのADフレームワークの比較評価を行うために,高度なパフォーマンス指標を採用している。
このアプローチは、サイバーセキュリティの課題が進展する中で、電力系統運用の信頼性を高めるための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-09T18:38:35Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - DetToolChain: A New Prompting Paradigm to Unleash Detection Ability of MLLM [81.75988648572347]
DetToolChainはマルチモーダル大言語モデル(MLLM)のゼロショットオブジェクト検出能力を解き放つ新しいパラダイムである。
提案手法は,高精度検出にヒントを得た検出プロンプトツールキットと,これらのプロンプトを実装するための新しいChain-of-Thoughtから構成される。
DetToolChainを用いたGPT-4Vは,オープン語彙検出のための新しいクラスセットにおいて,最先端のオブジェクト検出器を+21.5%AP50で改善することを示す。
論文 参考訳(メタデータ) (2024-03-19T06:54:33Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and Limitations [76.19419888353586]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - SMARLA: A Safety Monitoring Approach for Deep Reinforcement Learning Agents [7.33319373357049]
本稿では,Deep Reinforcement Learning (DRL)エージェント用に特別に設計されたブラックボックス安全監視手法SMARLAを紹介する。
SMARLAは機械学習を利用して、実行中のエージェントの動作を観察し、安全違反を予測する。
実験の結果、SMARLAは偽陽性率の低い安全違反を予測するのに正確であり、違反が起こる前にエージェントの実行の途中で早期に違反を予測することができることが明らかになった。
論文 参考訳(メタデータ) (2023-08-03T21:08:51Z) - A Deep Learning Framework for Wind Turbine Repair Action Prediction
Using Alarm Sequences and Long Short Term Memory Algorithms [1.2599533416395765]
コンディションベースの監視(CBM)は、近年のアラームベースのシステムとデータ駆動意思決定の研究の最前線にある。
本稿では,長短期記憶(LSTM)モデルと双方向LSTMモデルを比較し,アラームシーケンスの入力シーケンスから関連する修復動作のセットを予測する新しいアイデアを提案する。
論文 参考訳(メタデータ) (2022-07-19T12:11:06Z) - Semi-Supervised Temporal Action Detection with Proposal-Free Masking [134.26292288193298]
PropOsal-free Temporal mask (SPOT) に基づく新しい半教師付き時間行動検出モデルを提案する。
SPOTは最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2022-07-14T16:58:47Z) - Efficient Attention Branch Network with Combined Loss Function for
Automatic Speaker Verification Spoof Detection [7.219077740523682]
自動話者検証(Automatic Speaker Verification)のタスクのために現在デプロイされているモデルは、その最善は、目に見えない攻撃に対して適切な一般化の度合いを欠いていることである。
本研究では、一般化問題に対処するために、損失関数を組み合わせた効率的な注意分岐ネットワーク(EABN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-05T12:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。