論文の概要: AI Meets Maritime Training: Precision Analytics for Enhanced Safety and Performance
- arxiv url: http://arxiv.org/abs/2507.01274v1
- Date: Wed, 02 Jul 2025 01:19:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.971568
- Title: AI Meets Maritime Training: Precision Analytics for Enhanced Safety and Performance
- Title(参考訳): AIが海事訓練を実施 - 安全性とパフォーマンス向上のための精密分析
- Authors: Vishakha Lall, Yisi Liu,
- Abstract要約: 本研究では,訓練者のパフォーマンスを客観的に評価し,海事訓練を強化するためのAI駆動型フレームワークを開発する。
制御された高ストレスイベントに曝露された船員による模擬海洋シナリオのデータに基づいてモデルを評価した。
AIアルゴリズムは精度が高く、視覚検出は92%、海洋音声認識は91%、ストレス検出は90%、既存のベンチマークを上回った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Traditional simulator-based training for maritime professionals is critical for ensuring safety at sea but often depends on subjective trainer assessments of technical skills, behavioral focus, communication, and body language, posing challenges such as subjectivity, difficulty in measuring key features, and cognitive limitations. Addressing these issues, this study develops an AI-driven framework to enhance maritime training by objectively assessing trainee performance through visual focus tracking, speech recognition, and stress detection, improving readiness for high-risk scenarios. The system integrates AI techniques, including visual focus determination using eye tracking, pupil dilation analysis, and computer vision; communication analysis through a maritime-specific speech-to-text model and natural language processing; communication correctness using large language models; and mental stress detection via vocal pitch. Models were evaluated on data from simulated maritime scenarios with seafarers exposed to controlled high-stress events. The AI algorithms achieved high accuracy, with ~92% for visual detection, ~91% for maritime speech recognition, and ~90% for stress detection, surpassing existing benchmarks. The system provides insights into visual attention, adherence to communication checklists, and stress levels under demanding conditions. This study demonstrates how AI can transform maritime training by delivering objective performance analytics, enabling personalized feedback, and improving preparedness for real-world operational challenges.
- Abstract(参考訳): 海洋専門家のための伝統的なシミュレーターベースの訓練は、海上での安全を確保するために重要であるが、しばしば技術スキル、行動焦点、コミュニケーション、ボディランゲージの主観的トレーナーアセスメントに依存し、主観性、重要な特徴の測定の困難、認知的制限といった課題に対処する。
これらの課題に対処するために,視覚的焦点追跡,音声認識,ストレス検出を通じて訓練者のパフォーマンスを客観的に評価し,リスクの高いシナリオに対する準備性を向上させることにより,海事訓練を強化するAI駆動型フレームワークを開発した。
このシステムは、視線追跡、瞳孔拡張分析、コンピュータビジョンを用いた視覚的焦点決定、海洋固有の音声-テキストモデルと自然言語処理によるコミュニケーション分析、大きな言語モデルを用いたコミュニケーションの正しさ、音声ピッチによるメンタルストレス検出などのAI技術を統合する。
制御された高ストレスイベントに曝露された船員による模擬海洋シナリオのデータに基づいてモデルを評価した。
AIアルゴリズムは精度が高く、視覚検出は92%、海洋音声認識は91%、ストレス検出は90%、既存のベンチマークを上回った。
このシステムは、要求条件下での視覚的注意、コミュニケーションチェックリストの遵守、ストレスレベルに関する洞察を提供する。
この研究は、客観的なパフォーマンス分析を提供し、パーソナライズされたフィードバックを可能にし、実世界の運用上の課題に対する準備性を改善することによって、AIが海事訓練をどう変えるかを示す。
関連論文リスト
- Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [92.99416966226724]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - Perceptual Piercing: Human Visual Cue-based Object Detection in Low Visibility Conditions [2.0409124291940826]
本研究では,大気散乱と人間の視覚野機構に触発された新しい深層学習フレームワークを提案する。
本研究の目的は, 環境条件下での検知システムの精度と信頼性を高めることである。
論文 参考訳(メタデータ) (2024-10-02T04:03:07Z) - GPT as Psychologist? Preliminary Evaluations for GPT-4V on Visual Affective Computing [74.68232970965595]
MLLM(Multimodal large language model)は、テキスト、音声、画像、ビデオなどの複数のソースからの情報を処理し、統合するように設計されている。
本稿では、視覚的情緒的タスクと推論タスクにまたがる5つの重要な能力を持つMLLMの適用性を評価する。
論文 参考訳(メタデータ) (2024-03-09T13:56:25Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - VATLD: A Visual Analytics System to Assess, Understand and Improve
Traffic Light Detection [15.36267013724161]
本稿では,自律運転アプリケーションにおける交通信号検知器の精度とロバスト性を評価・理解・改善する視覚分析システム,VATLDを提案する。
歪んだ表現学習は、人間に親しみやすい視覚的要約で人間の認知を強化するために、データ意味を抽出する。
また、視覚分析システムであるVATLDによる様々な性能改善戦略の有効性を実証し、自律運転における安全クリティカルな応用の実践的意義を示す。
論文 参考訳(メタデータ) (2020-09-27T22:39:00Z) - Facial Electromyography-based Adaptive Virtual Reality Gaming for
Cognitive Training [5.033176361795483]
認知トレーニングの文献でよく引用される2つの問題は、トレーニングプログラムへのユーザエンゲージメントの欠如と、日々の生活を一般化するための発達したスキルの欠如である。
本稿では,これらの2つの制約に対処するために,新しい認知訓練(CT)パラダイムを導入する。
顔の筋電図(EMG)は、CTタスクに携わる際のユーザへの影響を判断する手段として用いられる。
この情報は、ユーザがプレイする際のゲームの難易度を動的に調整するために利用され、フロー状態に導くことを目的としている。
論文 参考訳(メタデータ) (2020-04-27T10:01:52Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。