論文の概要: HARNESS: Human-Agent Risk Navigation and Event Safety System for Proactive Hazard Forecasting in High-Risk DOE Environments
- arxiv url: http://arxiv.org/abs/2511.10810v1
- Date: Thu, 13 Nov 2025 21:22:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.334757
- Title: HARNESS: Human-Agent Risk Navigation and Event Safety System for Proactive Hazard Forecasting in High-Risk DOE Environments
- Title(参考訳): HARNESS:高リスクDOE環境におけるアクティブハザード予測のためのヒューマンエージェントリスクナビゲーションとイベントセーフティシステム
- Authors: Ran Elgedawy, Sanjay Das, Ethan Seefried, Gavin Wiggins, Ryan Burchfield, Dana Hewit, Sudarshan Srinivasan, Todd Thomas, Prasanna Balaprakash, Tirthankar Ghosal,
- Abstract要約: 本稿では,危険事象の予測と運用リスクの分析を目的とした,モジュール型AIフレームワークを提案する。
HARNESSは大規模言語モデル(LLM)と構造化作業データ、過去のイベント検索、リスク分析を統合している。
ヒューマン・イン・ザ・ループ(Human-in-the-loop)メカニズムにより、サブジェクト・マター・エキスパート(SME)は予測を洗練し、適応的な学習ループを作成することができる。
- 参考スコア(独自算出の注目度): 7.1308204502418135
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Operational safety at mission-critical work sites is a top priority given the complex and hazardous nature of daily tasks. This paper presents the Human-Agent Risk Navigation and Event Safety System (HARNESS), a modular AI framework designed to forecast hazardous events and analyze operational risks in U.S. Department of Energy (DOE) environments. HARNESS integrates Large Language Models (LLMs) with structured work data, historical event retrieval, and risk analysis to proactively identify potential hazards. A human-in-the-loop mechanism allows subject matter experts (SMEs) to refine predictions, creating an adaptive learning loop that enhances performance over time. By combining SME collaboration with iterative agentic reasoning, HARNESS improves the reliability and efficiency of predictive safety systems. Preliminary deployment shows promising results, with future work focusing on quantitative evaluation of accuracy, SME agreement, and decision latency reduction.
- Abstract(参考訳): ミッションクリティカルな作業現場での運用安全性は、日常業務の複雑で有害な性質を考えると、最優先事項である。
本稿では,危険事象を予測し,米国エネルギー省(DOE)環境での運用リスクを解析するモジュール型AIフレームワークであるHuman-Agent Risk Navigation and Event Safety System(HARNESS)を提案する。
HARNESSは、LLM(Large Language Models)と構造化作業データ、過去のイベント検索、リスク分析を統合して、潜在的な危険を積極的に特定する。
ヒューマン・イン・ザ・ループ(Human-in-the-loop)メカニズムにより、サブジェクト・マター・エキスパート(SME)は予測を洗練し、時間とともにパフォーマンスを高める適応学習ループを作成する。
SMEコラボレーションと反復的エージェント推論を組み合わせることで、HARNESSは予測安全システムの信頼性と効率を向上させる。
予備的な展開は有望な結果を示し、今後の作業は精度の定量的評価、中小企業合意、意思決定遅延の低減に重点を置いている。
関連論文リスト
- Leveraging the Power of Ensemble Learning for Secure Low Altitude Economy [64.39232788946173]
低高度経済(LAE)は社会福祉の強化と経済成長の推進に大きく貢献している。
本稿では,セキュアなLAEのためのアンサンブル学習,研究の焦点,解決策,ケーススタディについて検討する。
論文 参考訳(メタデータ) (2026-02-07T23:15:58Z) - ARTIS: Agentic Risk-Aware Test-Time Scaling via Iterative Simulation [72.78362530982109]
ARTIS(Agenic Risk-Aware Test-Time Scaling via Iterative Simulation)は、コミットメントから探索を分離するフレームワークである。
LLMをベースとした簡易シミュレータは, 希少かつ高インパクトな障害モードの捕捉に苦慮していることを示す。
本稿では,障害発生行動の忠実度を強調するリスク認識ツールシミュレータを提案する。
論文 参考訳(メタデータ) (2026-02-02T06:33:22Z) - AURA: An Agent Autonomy Risk Assessment Framework [0.0]
AURA(Agent aUtonomy Risk Assessment)はエージェントAIによるリスクの検出、定量化、緩和を目的とした統合されたフレームワークである。
AURAは、1つまたは複数のAIエージェントを同期的に、あるいは非同期に実行するリスクをスコアし、評価し、緩和するインタラクティブなプロセスを提供する。
AURAはエージェントAIの責任と透過性をサポートし、計算リソースのバランスを保ちながら、堅牢なリスク検出と緩和を提供する。
論文 参考訳(メタデータ) (2025-10-17T15:30:29Z) - Situational Awareness as the Imperative Capability for Disaster Resilience in the Era of Complex Hazards and Artificial Intelligence [1.1368819707015188]
災害はしばしば確立された危険モデルを超え、予期せぬ影響や脆弱性が効果的な対応を妨げている盲点を明らかにする。
状況認識(SA) - 動的危機条件を知覚し、解釈し、計画する能力は、しばしば見過ごされるが、災害の回復に不可欠な能力である。
論文 参考訳(メタデータ) (2025-08-21T03:38:47Z) - Enhancing Uncertainty Quantification for Runtime Safety Assurance Using Causal Risk Analysis and Operational Design Domain [0.0]
本研究では,環境条件を明確に取り入れた従来の不確実性定量化の強化を提案する。
本研究では,ハザード解析・リスクアセスメント(HARA)とフォールトツリーモデリングを活用し,システム機能に影響を及ぼす重要な運用条件を特定する。
実行時に、このBNはリアルタイム環境観測を用いてインスタンス化され、安全推定よりも確率分布を推定する。
論文 参考訳(メタデータ) (2025-07-04T12:12:32Z) - SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - AGENTSAFE: Benchmarking the Safety of Embodied Agents on Hazardous Instructions [64.85086226439954]
本稿では,有害な指示に対するVLMエージェントの安全性を評価するためのベンチマークであるSAFEを提案する。
SAFEは、SAFE−THOR、SAFE−VERSE、SAFE−DIAGNOSEの3つの成分からなる。
我々は、ハザード認識を安全な計画と実行に翻訳する体系的な失敗を明らかにする。
論文 参考訳(メタデータ) (2025-06-17T16:37:35Z) - Intelligent Approaches to Predictive Analytics in Occupational Health and Safety in India [0.0]
本稿では,インドにおける職業保健・安全実践の回復における予測分析の可能性について述べる。
この論文は、断片化されたデータエコシステムやリソース制約、職場のハザードの多様性といった課題に対処する可能性を示す方法を探究するものである。
インドの労働力の安全を守るため、知的慣行へのシフトを促している。
論文 参考訳(メタデータ) (2024-12-20T16:39:06Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。