論文の概要: The Last Decade in Review: Tracing the Evolution of Safety Assurance
Cases through a Comprehensive Bibliometric Analysis
- arxiv url: http://arxiv.org/abs/2311.07495v1
- Date: Mon, 13 Nov 2023 17:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 13:22:02.559292
- Title: The Last Decade in Review: Tracing the Evolution of Safety Assurance
Cases through a Comprehensive Bibliometric Analysis
- Title(参考訳): 過去10年間のレビュー:包括的書誌分析による安全保証事例の進化の追跡
- Authors: Mithila Sivakumar, Alvine Boaye Belle, Jinjun Shan, Opeyemi Adesina,
Song Wang, Marsha Chechik, Marios Fokaefs, Kimya Khakzad Shahandashti,
Oluwafemi Odu
- Abstract要約: 安全保証は、自動車、航空宇宙、原子力など、様々な分野において最重要事項である。
安全保証ケースを使用することで、生成されたシステム機能の正しさを検証することができ、システム障害を防止することができる。
- 参考スコア(独自算出の注目度): 7.431812376079826
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Safety assurance is of paramount importance across various domains, including
automotive, aerospace, and nuclear energy, where the reliability and
acceptability of mission-critical systems are imperative. This assurance is
effectively realized through the utilization of Safety Assurance Cases. The use
of safety assurance cases allows for verifying the correctness of the created
systems capabilities, preventing system failure. The latter may result in loss
of life, severe injuries, large-scale environmental damage, property
destruction, and major economic loss. Still, the emergence of complex
technologies such as cyber-physical systems (CPSs), characterized by their
heterogeneity, autonomy, machine learning capabilities, and the uncertainty of
their operational environments poses significant challenges for safety
assurance activities. Several papers have tried to propose solutions to tackle
these challenges, but to the best of our knowledge, no secondary study
investigates the trends, patterns, and relationships characterizing the safety
case scientific literature. This makes it difficult to have a holistic view of
the safety case landscape and to identify the most promising future research
directions. In this paper, we, therefore, rely on state-of-the-art bibliometric
tools(e.g., VosViewer) to conduct a bibliometric analysis that allows us to
generate valuable insights, identify key authors and venues, and gain a birds
eye view of the current state of research in the safety assurance area. By
revealing knowledge gaps and highlighting potential avenues for future
research, our analysis provides an essential foundation for researchers,
corporate safety analysts, and regulators seeking to embrace or enhance safety
practices that align with their specific needs and objectives.
- Abstract(参考訳): 安全保証は自動車、航空宇宙、原子力など様々な分野において重要であり、ミッションクリティカルシステムの信頼性と受容性が不可欠である。
この保証は、安全保証ケースの利用により効果的に実現される。
安全保証ケースを使用することで、生成されたシステム機能の正確性を検証することができ、システム障害を防止することができる。
後者は、命の喪失、重傷、大規模な環境被害、不動産破壊、そして大きな経済損失をもたらす可能性がある。
それでも、サイバー物理システム(CPS)のような複雑な技術の出現は、その不均一性、自律性、機械学習能力、そして運用環境の不確実性によって、安全保証活動に重大な課題をもたらす。
いくつかの論文はこれらの課題に取り組むための解決策を提案しているが、我々の知る限りでは、安全事例の科学文献を特徴付ける傾向、パターン、関係性についての研究は行われていない。
これにより、安全事例の全体像を持ち、最も有望な将来の研究方向を特定することが困難になる。
そこで本稿では,本論文では,書誌分析に最先端の書誌計測ツール(vosviewerなど)を応用し,貴重な知見を収集し,重要な著者や会場を特定し,安全性保証領域における研究の現状を鳥眼で把握する。
知識のギャップを明らかにし,今後の研究への道筋を明らかにすることにより,研究者,企業安全アナリスト,規制当局が,特定のニーズや目的に合致した安全慣行を受け入れ,強化しようとする上で必要不可欠な基礎を提供する。
関連論文リスト
- Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - I came, I saw, I certified: some perspectives on the safety assurance of
cyber-physical systems [5.9395940943056384]
サイバー物理システムの実行が失敗すると、生命の喪失、重傷、大規模な環境被害、資産破壊、そして大きな経済損失が生じる。
しばしば、規制機関がそのような制度を認定することを正当化し許すために、説得力のある保証ケースを開発することが義務付けられている。
我々は、保証イネーブラーのような課題を探求し、それらに取り組むための潜在的な方向性を概説する。
論文 参考訳(メタデータ) (2024-01-30T00:06:16Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Foveate, Attribute, and Rationalize: Towards Physically Safe and
Trustworthy AI [76.28956947107372]
包括的不安全テキストは、日常的なシナリオから生じる可能性のある特定の関心領域であり、有害なテキストを検出するのが困難である。
安全の文脈において、信頼に値する合理的な生成のために外部知識を活用する新しいフレームワークであるFARMを提案する。
実験の結果,FARMはSafeTextデータセットの最先端結果を得ることができ,安全性の分類精度が5.9%向上したことがわかった。
論文 参考訳(メタデータ) (2022-12-19T17:51:47Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - A Survey of Algorithms for Black-Box Safety Validation of Cyber-Physical
Systems [30.638615396429536]
安全クリティカルな人工知能の普及により、この研究は、CPSの最先端の安全検証技術の調査を提供する。
本稿では,最適化,経路計画,強化学習,重要サンプリングの分野におけるアルゴリズムについて論じる。
自動運転車や航空機衝突回避システムなど、安全クリティカルな応用の概要を概説する。
論文 参考訳(メタデータ) (2020-05-06T17:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。