論文の概要: HARNESS: Human-Agent Risk Navigation and Event Safety System for Proactive Hazard Forecasting in High-Risk DOE Environments
- arxiv url: http://arxiv.org/abs/2511.10810v1
- Date: Thu, 13 Nov 2025 21:22:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.334757
- Title: HARNESS: Human-Agent Risk Navigation and Event Safety System for Proactive Hazard Forecasting in High-Risk DOE Environments
- Title(参考訳): HARNESS:高リスクDOE環境におけるアクティブハザード予測のためのヒューマンエージェントリスクナビゲーションとイベントセーフティシステム
- Authors: Ran Elgedawy, Sanjay Das, Ethan Seefried, Gavin Wiggins, Ryan Burchfield, Dana Hewit, Sudarshan Srinivasan, Todd Thomas, Prasanna Balaprakash, Tirthankar Ghosal,
- Abstract要約: 本稿では,危険事象の予測と運用リスクの分析を目的とした,モジュール型AIフレームワークを提案する。
HARNESSは大規模言語モデル(LLM)と構造化作業データ、過去のイベント検索、リスク分析を統合している。
ヒューマン・イン・ザ・ループ(Human-in-the-loop)メカニズムにより、サブジェクト・マター・エキスパート(SME)は予測を洗練し、適応的な学習ループを作成することができる。
- 参考スコア(独自算出の注目度): 7.1308204502418135
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Operational safety at mission-critical work sites is a top priority given the complex and hazardous nature of daily tasks. This paper presents the Human-Agent Risk Navigation and Event Safety System (HARNESS), a modular AI framework designed to forecast hazardous events and analyze operational risks in U.S. Department of Energy (DOE) environments. HARNESS integrates Large Language Models (LLMs) with structured work data, historical event retrieval, and risk analysis to proactively identify potential hazards. A human-in-the-loop mechanism allows subject matter experts (SMEs) to refine predictions, creating an adaptive learning loop that enhances performance over time. By combining SME collaboration with iterative agentic reasoning, HARNESS improves the reliability and efficiency of predictive safety systems. Preliminary deployment shows promising results, with future work focusing on quantitative evaluation of accuracy, SME agreement, and decision latency reduction.
- Abstract(参考訳): ミッションクリティカルな作業現場での運用安全性は、日常業務の複雑で有害な性質を考えると、最優先事項である。
本稿では,危険事象を予測し,米国エネルギー省(DOE)環境での運用リスクを解析するモジュール型AIフレームワークであるHuman-Agent Risk Navigation and Event Safety System(HARNESS)を提案する。
HARNESSは、LLM(Large Language Models)と構造化作業データ、過去のイベント検索、リスク分析を統合して、潜在的な危険を積極的に特定する。
ヒューマン・イン・ザ・ループ(Human-in-the-loop)メカニズムにより、サブジェクト・マター・エキスパート(SME)は予測を洗練し、時間とともにパフォーマンスを高める適応学習ループを作成する。
SMEコラボレーションと反復的エージェント推論を組み合わせることで、HARNESSは予測安全システムの信頼性と効率を向上させる。
予備的な展開は有望な結果を示し、今後の作業は精度の定量的評価、中小企業合意、意思決定遅延の低減に重点を置いている。
関連論文リスト
- AGENTSAFE: Benchmarking the Safety of Embodied Agents on Hazardous Instructions [64.85086226439954]
本稿では,有害な指示に対するVLMエージェントの安全性を評価するためのベンチマークであるSAFEを提案する。
SAFEは、SAFE−THOR、SAFE−VERSE、SAFE−DIAGNOSEの3つの成分からなる。
我々は、ハザード認識を安全な計画と実行に翻訳する体系的な失敗を明らかにする。
論文 参考訳(メタデータ) (2025-06-17T16:37:35Z) - Intelligent Approaches to Predictive Analytics in Occupational Health and Safety in India [0.0]
本稿では,インドにおける職業保健・安全実践の回復における予測分析の可能性について述べる。
この論文は、断片化されたデータエコシステムやリソース制約、職場のハザードの多様性といった課題に対処する可能性を示す方法を探究するものである。
インドの労働力の安全を守るため、知的慣行へのシフトを促している。
論文 参考訳(メタデータ) (2024-12-20T16:39:06Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。