論文の概要: Aviation Safety Enhancement via NLP & Deep Learning: Classifying Flight Phases in ATSB Safety Reports
- arxiv url: http://arxiv.org/abs/2501.07923v1
- Date: Tue, 14 Jan 2025 08:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:58.035226
- Title: Aviation Safety Enhancement via NLP & Deep Learning: Classifying Flight Phases in ATSB Safety Reports
- Title(参考訳): NLPと深層学習による航空安全の強化:ATSB安全レポートにおける飛行段階の分類
- Authors: Aziida Nanyonga, Hassan Wasswa, Graham Wild,
- Abstract要約: 本研究では, LSTM, CNN, Bidirectional LSTM(BLSTM), Simple Recurrent Neural Networks(sRNN)を含む自然言語処理(NLP)とディープラーニングモデルを用いて, オーストラリア運輸安全局(ATSB)の安全レポートの飛行相を分類する。
LSTMは87%,88%,87%,88%であった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Aviation safety is paramount, demanding precise analysis of safety occurrences during different flight phases. This study employs Natural Language Processing (NLP) and Deep Learning models, including LSTM, CNN, Bidirectional LSTM (BLSTM), and simple Recurrent Neural Networks (sRNN), to classify flight phases in safety reports from the Australian Transport Safety Bureau (ATSB). The models exhibited high accuracy, precision, recall, and F1 scores, with LSTM achieving the highest performance of 87%, 88%, 87%, and 88%, respectively. This performance highlights their effectiveness in automating safety occurrence analysis. The integration of NLP and Deep Learning technologies promises transformative enhancements in aviation safety analysis, enabling targeted safety measures and streamlined report handling.
- Abstract(参考訳): 航空安全は最重要であり、異なる飛行段階の安全発生を正確に分析する必要がある。
本研究では, LSTM, CNN, Bidirectional LSTM (BLSTM), Simple Recurrent Neural Networks (sRNN) を含む自然言語処理(NLP)とディープラーニングモデルを用いて, オーストラリア運輸安全局(ATSB)の安全レポートの飛行段階を分類する。
LSTMは87%,88%,87%,88%であった。
この性能は、安全発生分析の自動化における有効性を強調している。
NLPとDeep Learningの技術の統合は、航空安全分析の変革的な強化を約束し、目標とする安全対策と報告処理の合理化を可能にしている。
関連論文リスト
- How Does Vision-Language Adaptation Impact the Safety of Vision Language Models? [27.46416187893547]
大規模言語モデル(LLM)を大規模視覚言語モデル(LVLM)に変換する視覚言語適応(VL適応)
安全性対策の弱さによる潜在的有害性にもかかわらず、VL適応の安全性への影響に関する詳細な分析は未調査のままである。
論文 参考訳(メタデータ) (2024-10-10T03:12:03Z) - SEAL: Safety-enhanced Aligned LLM Fine-tuning via Bilevel Data Selection [92.38300626647342]
SEALは、二段階最適化に基づいてデータローカを学習し、安全で高品質な微調整データをランク付けし、安全でないものや低品質なものをランク付けする。
SEALで訓練されたモデルは、複数のベースラインよりも優れた品質を示し、ランダム選択に比べて8.5%と9.7%の勝利率が上昇した。
論文 参考訳(メタデータ) (2024-10-09T22:24:22Z) - SCANS: Mitigating the Exaggerated Safety for LLMs via Safety-Conscious Activation Steering [56.92068213969036]
悪意のある命令から脅威を守るために、LLM(Large Language Models)には安全アライメントが不可欠である。
近年の研究では、過大な安全性の問題により、安全性に配慮したLCMは、良質な問い合わせを拒否する傾向にあることが明らかになっている。
過大な安全性の懸念を和らげるために,SCANS法を提案する。
論文 参考訳(メタデータ) (2024-08-21T10:01:34Z) - Enhancing IoT Security with CNN and LSTM-Based Intrusion Detection Systems [0.23408308015481666]
提案モデルは,畳み込みニューラルネットワーク(CNN)と長短期記憶(LSTM)ディープラーニング(DL)モデルを組み合わせて構成する。
この融合により、IoTトラフィックをバイナリカテゴリ、良性、悪意のあるアクティビティに検出し、分類することが可能になる。
提案モデルの精度は98.42%,最小損失は0.0275である。
論文 参考訳(メタデータ) (2024-05-28T22:12:15Z) - Navigating the Safety Landscape: Measuring Risks in Finetuning Large Language Models [65.06446825020578]
大規模言語モデル(LLM)が人間の嗜好に合わせて行動し、推論中に有害な行動を防ぐためには、安全性の調整が不可欠である。
我々は, LLMの安全景観をナビゲートすることで, LLMの微調整のリスクを測定することを目的としている。
論文 参考訳(メタデータ) (2024-05-27T17:31:56Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - SafetyBench: Evaluating the Safety of Large Language Models [54.878612385780805]
SafetyBenchは、大規模言語モデル(LLM)の安全性を評価するための包括的なベンチマークである。
11,435 の多様な選択質問が 7 つの異なるカテゴリーの安全問題にまたがっている。
ゼロショット設定と少数ショット設定の両方で、中国語と英語のLLMを25回以上テストしたところ、GPT-4よりも大幅にパフォーマンス上の優位性を示しました。
論文 参考訳(メタデータ) (2023-09-13T15:56:50Z) - Aviation Safety Risk Analysis and Flight Technology Assessment Issues [0.0]
これは2つの主要な領域に焦点を当てている:超越事象を分析し、非存在データを統計的に評価する。
提案したソリューションには、データ前処理、信頼性評価、ニューラルネットワークを用いた飛行制御の定量化、探索データ分析、リアルタイム自動警告の確立が含まれる。
論文 参考訳(メタデータ) (2023-08-10T14:13:49Z) - A LSTM and Cost-Sensitive Learning-Based Real-Time Warning for Civil
Aviation Over-limit [0.0]
QARデータ監視に基づいて,民間航空の過度限界に対するリアルタイム警告モデルを提案する。
提案モデルでは,F1スコアが0.991,精度が0.978であり,民間航空の過度なリアルタイム警告の有効性を示す。
論文 参考訳(メタデータ) (2023-05-08T10:56:06Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。