論文の概要: Modeling and mitigation of occupational safety risks in dynamic
industrial environments
- arxiv url: http://arxiv.org/abs/2205.00894v1
- Date: Mon, 2 May 2022 13:04:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:35:36.897639
- Title: Modeling and mitigation of occupational safety risks in dynamic
industrial environments
- Title(参考訳): 動的産業環境における作業安全リスクのモデル化と緩和
- Authors: Ashutosh Tewari and Antonio R. Paiva
- Abstract要約: 本稿では,データ駆動方式で安全リスクを連続的かつ定量的に評価する手法を提案する。
オンライン形式で安全データからこのモデルを校正するために、完全なベイズ的アプローチが開発されている。
提案したモデルは自動意思決定に利用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying and mitigating safety risks is paramount in a number of
industries. In addition to guidelines and best practices, many industries
already have safety management systems (SMSs) designed to monitor and reinforce
good safety behaviors. The analytic capabilities to analyze the data acquired
through such systems, however, are still lacking in terms of their ability to
robustly quantify risks posed by various occupational hazards. Moreover, best
practices and modern SMSs are unable to account for dynamically evolving
environments/behavioral characteristics commonly found in many industrial
settings. This article proposes a method to address these issues by enabling
continuous and quantitative assessment of safety risks in a data-driven manner.
The backbone of our method is an intuitive hierarchical probabilistic model
that explains sparse and noisy safety data collected by a typical SMS. A fully
Bayesian approach is developed to calibrate this model from safety data in an
online fashion. Thereafter, the calibrated model holds necessary information
that serves to characterize risk posed by different safety hazards.
Additionally, the proposed model can be leveraged for automated decision
making, for instance solving resource allocation problems -- targeted towards
risk mitigation -- that are often encountered in resource-constrained
industrial environments. The methodology is rigorously validated on a simulated
test-bed and its scalability is demonstrated on real data from large
maintenance projects at a petrochemical plant.
- Abstract(参考訳): 多くの産業において安全リスクの特定と緩和が最重要である。
ガイドラインやベストプラクティスに加えて、多くの産業は安全管理システム(SMS)をすでに備えており、優れた安全行動を監視し強化している。
しかし、こうしたシステムを通じて得られたデータを分析する分析能力は、様々な作業上の危険によって生じるリスクを堅牢に定量化できる能力に関してはまだ不足している。
さらに、ベストプラクティスや現代のsmsは、多くの産業環境で一般的に見られる、動的に進化する環境や行動特性を説明できない。
本稿では,データ駆動方式で安全性リスクを連続的かつ定量的に評価することで,これらの問題に対処する手法を提案する。
本手法のバックボーンは直感的な階層的確率モデルであり,典型的なSMSで収集されるスパースとノイズの安全データを説明する。
このモデルをオンライン形式で安全データから校正するために、完全にベイズ的アプローチが開発されている。
その後、キャリブレーションされたモデルは、異なる安全リスクによって生じるリスクを特徴付けるために必要な情報を保持する。
さらに、提案されたモデルは、リソース制約のある産業環境でしばしば発生するリスク軽減を目的としたリソース割り当て問題の解決など、自動意思決定に利用することができる。
この手法はシミュレーションテストベッド上で厳密に検証され,その拡張性は石油化学プラントの大規模保守プロジェクトからの実データで実証される。
関連論文リスト
- Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Probabilistic Counterexample Guidance for Safer Reinforcement Learning
(Extended Version) [1.279257604152629]
セーフサーベイは、安全クリティカルなシナリオにおける強化学習(RL)の限界に対処することを目的としている。
外部知識を取り入れたり、センサデータを使って安全でない状態の探索を制限する方法はいくつか存在する。
本稿では,安全要件の反例によるトレーニングを指導することで,安全な探査の課題をターゲットにする。
論文 参考訳(メタデータ) (2023-07-10T22:28:33Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Lyapunov-based uncertainty-aware safe reinforcement learning [0.0]
InReinforcement Learning (RL)は、様々なシーケンシャルな意思決定タスクに対して最適なポリシーを学ぶ上で、有望なパフォーマンスを示している。
多くの現実世界のRL問題において、主な目的を最適化する以外に、エージェントは一定のレベルの安全性を満たすことが期待されている。
これらの制約に対処するために,リャプノフに基づく不確実性を考慮した安全なRLモデルを提案する。
論文 参考訳(メタデータ) (2021-07-29T13:08:15Z) - Automatic Risk Adaptation in Distributional Reinforcement Learning [26.113528145137497]
実践的応用における強化学習(RL)エージェントの使用は、最適以下の結果を考慮する必要がある。
これは特に安全クリティカルな環境において重要であり、エラーは高いコストや損害をもたらす可能性がある。
リスク認識エージェントとリスク認識エージェントの両方と比較して, 失敗率を最大7倍に低下させ, 一般化性能を最大14%向上させた。
論文 参考訳(メタデータ) (2021-06-11T11:31:04Z) - Context-Aware Safe Reinforcement Learning for Non-Stationary
Environments [24.75527261989899]
現実的なタスクのために強化学習エージェントを展開する場合、安全は重要な問題である。
非定常環境における安全な適応を実現するために,文脈認識型安全強化学習法(CASRL)を提案する。
提案アルゴリズムは,安全性とロバスト性の観点から,既存のベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-01-02T23:52:22Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Neural Bridge Sampling for Evaluating Safety-Critical Autonomous Systems [34.945482759378734]
シミュレーションの安全性評価には確率論的アプローチを用いており、危険事象の確率を計算することに関心がある。
探索, 利用, 最適化技術を組み合わせて, 故障モードを見つけ, 発生率を推定する新しいレアイベントシミュレーション手法を開発した。
論文 参考訳(メタデータ) (2020-08-24T17:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。