論文の概要: Modeling and mitigation of occupational safety risks in dynamic
industrial environments
- arxiv url: http://arxiv.org/abs/2205.00894v1
- Date: Mon, 2 May 2022 13:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:35:36.897639
- Title: Modeling and mitigation of occupational safety risks in dynamic
industrial environments
- Title(参考訳): 動的産業環境における作業安全リスクのモデル化と緩和
- Authors: Ashutosh Tewari and Antonio R. Paiva
- Abstract要約: 本稿では,データ駆動方式で安全リスクを連続的かつ定量的に評価する手法を提案する。
オンライン形式で安全データからこのモデルを校正するために、完全なベイズ的アプローチが開発されている。
提案したモデルは自動意思決定に利用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying and mitigating safety risks is paramount in a number of
industries. In addition to guidelines and best practices, many industries
already have safety management systems (SMSs) designed to monitor and reinforce
good safety behaviors. The analytic capabilities to analyze the data acquired
through such systems, however, are still lacking in terms of their ability to
robustly quantify risks posed by various occupational hazards. Moreover, best
practices and modern SMSs are unable to account for dynamically evolving
environments/behavioral characteristics commonly found in many industrial
settings. This article proposes a method to address these issues by enabling
continuous and quantitative assessment of safety risks in a data-driven manner.
The backbone of our method is an intuitive hierarchical probabilistic model
that explains sparse and noisy safety data collected by a typical SMS. A fully
Bayesian approach is developed to calibrate this model from safety data in an
online fashion. Thereafter, the calibrated model holds necessary information
that serves to characterize risk posed by different safety hazards.
Additionally, the proposed model can be leveraged for automated decision
making, for instance solving resource allocation problems -- targeted towards
risk mitigation -- that are often encountered in resource-constrained
industrial environments. The methodology is rigorously validated on a simulated
test-bed and its scalability is demonstrated on real data from large
maintenance projects at a petrochemical plant.
- Abstract(参考訳): 多くの産業において安全リスクの特定と緩和が最重要である。
ガイドラインやベストプラクティスに加えて、多くの産業は安全管理システム(SMS)をすでに備えており、優れた安全行動を監視し強化している。
しかし、こうしたシステムを通じて得られたデータを分析する分析能力は、様々な作業上の危険によって生じるリスクを堅牢に定量化できる能力に関してはまだ不足している。
さらに、ベストプラクティスや現代のsmsは、多くの産業環境で一般的に見られる、動的に進化する環境や行動特性を説明できない。
本稿では,データ駆動方式で安全性リスクを連続的かつ定量的に評価することで,これらの問題に対処する手法を提案する。
本手法のバックボーンは直感的な階層的確率モデルであり,典型的なSMSで収集されるスパースとノイズの安全データを説明する。
このモデルをオンライン形式で安全データから校正するために、完全にベイズ的アプローチが開発されている。
その後、キャリブレーションされたモデルは、異なる安全リスクによって生じるリスクを特徴付けるために必要な情報を保持する。
さらに、提案されたモデルは、リソース制約のある産業環境でしばしば発生するリスク軽減を目的としたリソース割り当て問題の解決など、自動意思決定に利用することができる。
この手法はシミュレーションテストベッド上で厳密に検証され,その拡張性は石油化学プラントの大規模保守プロジェクトからの実データで実証される。
関連論文リスト
- A Formal Framework for Assessing and Mitigating Emergent Security Risks in Generative AI Models: Bridging Theory and Dynamic Risk Mitigation [0.3413711585591077]
大規模言語モデル(LLM)や拡散モデルを含む生成AIシステムが急速に進歩するにつれ、その採用が増加し、新たな複雑なセキュリティリスクがもたらされた。
本稿では,これらの突発的なセキュリティリスクを分類・緩和するための新しい形式的枠組みを提案する。
我々は、潜時空間利用、マルチモーダル・クロスアタック・ベクター、フィードバックループによるモデル劣化など、未探索のリスクを特定した。
論文 参考訳(メタデータ) (2024-10-15T02:51:32Z) - EAIRiskBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [47.69642609574771]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
EAIRiskBenchは、EAIシナリオにおける自動物理的リスクアセスメントのための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - Towards Precise Observations of Neural Model Robustness in Classification [2.127049691404299]
ディープラーニングアプリケーションでは、ロバストネスは入力データのわずかな変化を処理するニューラルネットワークの能力を測定する。
私たちのアプローチは、安全クリティカルなアプリケーションにおけるモデルロバストネスのより深い理解に寄与します。
論文 参考訳(メタデータ) (2024-04-25T09:37:44Z) - Data-Adaptive Tradeoffs among Multiple Risks in Distribution-Free Prediction [55.77015419028725]
しきい値とトレードオフパラメータが適応的に選択された場合、リスクの有効な制御を可能にする手法を開発する。
提案手法は単調なリスクとほぼ単調なリスクをサポートするが,それ以外は分布的な仮定はしない。
論文 参考訳(メタデータ) (2024-03-28T17:28:06Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Lyapunov-based uncertainty-aware safe reinforcement learning [0.0]
InReinforcement Learning (RL)は、様々なシーケンシャルな意思決定タスクに対して最適なポリシーを学ぶ上で、有望なパフォーマンスを示している。
多くの現実世界のRL問題において、主な目的を最適化する以外に、エージェントは一定のレベルの安全性を満たすことが期待されている。
これらの制約に対処するために,リャプノフに基づく不確実性を考慮した安全なRLモデルを提案する。
論文 参考訳(メタデータ) (2021-07-29T13:08:15Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。