論文の概要: Aviation Safety Enhancement via NLP & Deep Learning: Classifying Flight Phases in ATSB Safety Reports
- arxiv url: http://arxiv.org/abs/2501.07923v1
- Date: Tue, 14 Jan 2025 08:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:58.035226
- Title: Aviation Safety Enhancement via NLP & Deep Learning: Classifying Flight Phases in ATSB Safety Reports
- Title(参考訳): NLPと深層学習による航空安全の強化:ATSB安全レポートにおける飛行段階の分類
- Authors: Aziida Nanyonga, Hassan Wasswa, Graham Wild,
- Abstract要約: 本研究では, LSTM, CNN, Bidirectional LSTM(BLSTM), Simple Recurrent Neural Networks(sRNN)を含む自然言語処理(NLP)とディープラーニングモデルを用いて, オーストラリア運輸安全局(ATSB)の安全レポートの飛行相を分類する。
LSTMは87%,88%,87%,88%であった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Aviation safety is paramount, demanding precise analysis of safety occurrences during different flight phases. This study employs Natural Language Processing (NLP) and Deep Learning models, including LSTM, CNN, Bidirectional LSTM (BLSTM), and simple Recurrent Neural Networks (sRNN), to classify flight phases in safety reports from the Australian Transport Safety Bureau (ATSB). The models exhibited high accuracy, precision, recall, and F1 scores, with LSTM achieving the highest performance of 87%, 88%, 87%, and 88%, respectively. This performance highlights their effectiveness in automating safety occurrence analysis. The integration of NLP and Deep Learning technologies promises transformative enhancements in aviation safety analysis, enabling targeted safety measures and streamlined report handling.
- Abstract(参考訳): 航空安全は最重要であり、異なる飛行段階の安全発生を正確に分析する必要がある。
本研究では, LSTM, CNN, Bidirectional LSTM (BLSTM), Simple Recurrent Neural Networks (sRNN) を含む自然言語処理(NLP)とディープラーニングモデルを用いて, オーストラリア運輸安全局(ATSB)の安全レポートの飛行段階を分類する。
LSTMは87%,88%,87%,88%であった。
この性能は、安全発生分析の自動化における有効性を強調している。
NLPとDeep Learningの技術の統合は、航空安全分析の変革的な強化を約束し、目標とする安全対策と報告処理の合理化を可能にしている。
関連論文リスト
- Phase of Flight Classification in Aviation Safety using LSTM, GRU, and BiLSTM: A Case Study with ASN Dataset [0.0]
本研究の目的は,NLP技術を用いて,事故後の出来事の物語から飛行の段階を推定できるかどうかを判断することである。
各種深層学習モデルの分類性能を評価した。
論文 参考訳(メタデータ) (2025-01-14T08:26:58Z) - Natural Language Processing and Deep Learning Models to Classify Phase of Flight in Aviation Safety Occurrences [14.379311972506791]
研究者らは、自然言語処理(NLP)と人工知能(AI)モデルを使用して、安全発生の飛行フェーズを分類するテキスト物語を処理した。
NTSBによる27,000件の安全発生レポートの初期データセットを用いて、ResNetとsRNNの2つのディープラーニングモデルの分類性能を評価した。
論文 参考訳(メタデータ) (2025-01-11T15:02:49Z) - Sequential Classification of Aviation Safety Occurrences with Natural Language Processing [14.379311972506791]
安全事象を分類し分類する能力は、航空産業の利害関係者が情報的安全クリティカルな決定を下すのに役立つだろう。
各種深層学習モデルの分類性能を,NTSBによる27,000件の安全発生報告に基づいて評価した。
論文 参考訳(メタデータ) (2025-01-11T09:23:55Z) - Comparative Study of Deep Learning Architectures for Textual Damage Level Classification [0.0]
本研究では、自然言語処理(NLP)とディープラーニングモデルを用いて、非構造化テキストの物語を分析することを目的とする。
LSTM, BLSTM, GRU, およびsRNN深層学習モデルを用いて, 安全発生時に発生する航空機の損傷レベルを分類する。
sRNNモデルはリコールと精度でトップパフォーマーとして登場し、驚くべき89%を誇った。
論文 参考訳(メタデータ) (2025-01-03T08:23:29Z) - How Does Vision-Language Adaptation Impact the Safety of Vision Language Models? [27.46416187893547]
大規模言語モデル(LLM)を大規模視覚言語モデル(LVLM)に変換する視覚言語適応(VL適応)
安全性対策の弱さによる潜在的有害性にもかかわらず、VL適応の安全性への影響に関する詳細な分析は未調査のままである。
論文 参考訳(メタデータ) (2024-10-10T03:12:03Z) - SEAL: Safety-enhanced Aligned LLM Fine-tuning via Bilevel Data Selection [92.38300626647342]
SEALは、二段階最適化に基づいてデータローカを学習し、安全で高品質な微調整データをランク付けし、安全でないものや低品質なものをランク付けする。
SEALで訓練されたモデルは、複数のベースラインよりも優れた品質を示し、ランダム選択に比べて8.5%と9.7%の勝利率が上昇した。
論文 参考訳(メタデータ) (2024-10-09T22:24:22Z) - SCANS: Mitigating the Exaggerated Safety for LLMs via Safety-Conscious Activation Steering [56.92068213969036]
悪意のある命令から脅威を守るために、LLM(Large Language Models)には安全アライメントが不可欠である。
近年の研究では、過大な安全性の問題により、安全性に配慮したLCMは、良質な問い合わせを拒否する傾向にあることが明らかになっている。
過大な安全性の懸念を和らげるために,SCANS法を提案する。
論文 参考訳(メタデータ) (2024-08-21T10:01:34Z) - Navigating the Safety Landscape: Measuring Risks in Finetuning Large Language Models [65.06446825020578]
大規模言語モデル(LLM)が人間の嗜好に合わせて行動し、推論中に有害な行動を防ぐためには、安全性の調整が不可欠である。
我々は, LLMの安全景観をナビゲートすることで, LLMの微調整のリスクを測定することを目的としている。
論文 参考訳(メタデータ) (2024-05-27T17:31:56Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - SafetyBench: Evaluating the Safety of Large Language Models [54.878612385780805]
SafetyBenchは、大規模言語モデル(LLM)の安全性を評価するための包括的なベンチマークである。
11,435 の多様な選択質問が 7 つの異なるカテゴリーの安全問題にまたがっている。
ゼロショット設定と少数ショット設定の両方で、中国語と英語のLLMを25回以上テストしたところ、GPT-4よりも大幅にパフォーマンス上の優位性を示しました。
論文 参考訳(メタデータ) (2023-09-13T15:56:50Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。