論文の概要: Instilling Organisational Values in Firefighters through Simulation-Based Training
- arxiv url: http://arxiv.org/abs/2512.13737v1
- Date: Sun, 14 Dec 2025 12:38:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.413204
- Title: Instilling Organisational Values in Firefighters through Simulation-Based Training
- Title(参考訳): シミュレーションによる消防員の組織価値の注入
- Authors: Nardine Osman, Manel Rodriguez-Soto, Jordi Sabater-Mir,
- Abstract要約: 本稿では, 部門価値をシミュレーションベーストレーニングに体系的に統合することで, 消防士の訓練を強化するための概念的枠組みを提案する。
このアプローチは、より深い価値の内包を促進し、プレッシャーの下で価値駆動型意思決定を改善する。
- 参考スコア(独自算出の注目度): 3.614346794514882
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In firefighting and other emergency operations, decisions made under pressure carry profound ethical weight and can significantly impact incident outcomes and firefighter safety. Traditional training methods, while foundational, often fall short in adequately preparing firefighters for the complex ethical dilemmas and value conflicts inherent in chaotic emergency environments. This paper proposes a conceptual framework for enhancing firefighter training by systematically integrating departmental values into simulation-based training. This approach fosters deeper value internalisation and improves value-driven decision-making under pressure. Furthermore, the underlying tools can also be leveraged to evaluate and refine departmental operational protocols for better alignment with preferred values.
- Abstract(参考訳): 消防活動やその他の緊急活動において、プレッシャーを受ける決定は重大な倫理的重みを持ち、事故の結果や消防士の安全に大きな影響を及ぼす可能性がある。
伝統的な訓練法は、基本的なものであるが、複雑な倫理的ジレンマと、カオス的な緊急環境に固有の価値の衝突のために、消防士を適切に準備するのに不足することが多い。
本稿では, 部門価値をシミュレーションベーストレーニングに体系的に統合することで, 消防士の訓練を強化するための概念的枠組みを提案する。
このアプローチは、より深い価値の内包を促進し、プレッシャーの下で価値駆動型意思決定を改善する。
さらに、その基盤となるツールは、望ましい値との整合性を高めるために、部門ごとの運用プロトコルを評価し、洗練するために利用することもできる。
関連論文リスト
- Large Reasoning Models Learn Better Alignment from Flawed Thinking [56.08883934423522]
大規模推論モデル(LRM)は、最終的な答えを生成する前に構造化チェーン・オブ・シント(CoT)を生成することで「考える」。
本稿では,Regressed Learning (RL) 手法であるRECAPを提案する。
論文 参考訳(メタデータ) (2025-10-01T14:15:43Z) - Safety Reasoning with Guidelines [63.15719512614899]
RT(Refusal Training)は、様々なアウト・オブ・ディストリビューション(OOD)のジェイルブレイク攻撃に対する一般化に苦慮している。
本稿では,クエリ毎に安全推論を行うためのトレーニングモデルを提案する。
論文 参考訳(メタデータ) (2025-02-06T13:01:44Z) - Safe Reinforcement Learning in Black-Box Environments via Adaptive Shielding [6.255435016547602]
本稿では、トレーニング中の状態-動作ペアの安全性と安全性を区別する新しい技術であるADVICE(Adaptive Shielding with a Contrastive Autoencoder)を紹介する。
総合実験の結果,ADVICEはトレーニング中の安全違反(50%)を有意に低減し,他の手法と比較して競争力のある結果が得られた。
論文 参考訳(メタデータ) (2024-05-28T13:47:21Z) - Robust Deep Reinforcement Learning Through Adversarial Attacks and Training : A Survey [8.1138182541639]
Deep Reinforcement Learning (DRL)は、複雑な環境を横断してシーケンシャルなアクションをとる自律エージェントを訓練するための機械学習のサブフィールドである。
微妙な条件の変化の影響を受けながらも、現実のアプリケーションにおける信頼性への懸念を高めている。
DRLのロバスト性向上手法として, 環境条件の未知の変化と摂動の可能性について考察する。
論文 参考訳(メタデータ) (2024-03-01T10:16:46Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Integrating Deep Learning and Augmented Reality to Enhance Situational
Awareness in Firefighting Environments [4.061135251278187]
文献の中では,消防士の状況認識を初めて構築するための,新たな4つのアプローチを提案する。
まず、深層畳み込みニューラルネットワーク(CNN)システムを用いて、熱画像から興味のある物体をリアルタイムで分類、同定した。
次に、オブジェクト検出、追跡、Mask RCNNフレームワークによるセグメンテーション、マルチモーダル自然言語処理(NLP)フレームワークによるシーン記述のためのCNNフレームワークを拡張した。
第3に、ストレスによる不整合と不安に免疫する深いQラーニングに基づくエージェントを構築し、観察結果に基づいて明確なナビゲーション決定を行う。
論文 参考訳(メタデータ) (2021-07-23T06:35:13Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z) - Conservative Safety Critics for Exploration [120.73241848565449]
強化学習(RL)における安全な探索の課題について検討する。
我々は、批評家を通じて環境状態の保守的な安全性推定を学習する。
提案手法は,破滅的故障率を著しく低く抑えながら,競争力のあるタスク性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-27T17:54:25Z) - Efficient Adversarial Training with Transferable Adversarial Examples [58.62766224452761]
同じトレーニングプロセスにおいて、近隣のエポックからのモデル間で高い転送可能性があることが示される。
本稿では,ATTA(Adversarial Training with Transferable Adversarial Examples)を提案する。
論文 参考訳(メタデータ) (2019-12-27T03:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。