論文の概要: The Missing Variable: Socio-Technical Alignment in Risk Evaluation
- arxiv url: http://arxiv.org/abs/2512.06354v1
- Date: Sat, 06 Dec 2025 08:59:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.319246
- Title: The Missing Variable: Socio-Technical Alignment in Risk Evaluation
- Title(参考訳): リスク評価における社会技術的アライメントの欠如
- Authors: Niclas Flehmig, Mary Ann Lundteigen, Shen Yin,
- Abstract要約: 既存のリスク評価手法では、人間、技術、組織要素間の複雑な相互作用を考慮できない。
基本的リスク方程式に統合されるように設計された新しい社会技術的アライメント$STA$変数を導入する。
- 参考スコア(独自算出の注目度): 5.539407031861404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses a critical gap in the risk assessment of AI-enabled safety-critical systems. While these systems, where AI systems assists human operators, function as complex socio-technical systems, existing risk evaluation methods fail to account for the associated complex interaction between human, technical, and organizational elements. Through a comparative analysis of system attributes from both socio-technical and AI-enabled systems and a review of current risk evaluation methods, we confirm the absence of socio-technical considerations in standard risk expressions. To bridge this gap, we introduce a novel socio-technical alignment $STA$ variable designed to be integrated into the foundational risk equation. This variable estimates the degree of harmonious interaction between the AI systems, human operators, and organizational processes. A case study on an AI-enabled liquid hydrogen bunkering system demonstrates the variable's relevance. By comparing a naive and a safeguarded system design, we illustrate how the $STA$-augmented expression captures socio-technical safety implications that traditional risk evaluation overlooks, providing a more holistic basis for risk evaluation.
- Abstract(参考訳): 本稿では,AI対応安全クリティカルシステムのリスクアセスメントにおける重要なギャップについて論じる。
これらのシステムは、AIシステムが人間のオペレーターを支援し、複雑な社会技術的システムとして機能するが、既存のリスク評価手法は、人間、技術、組織要素間の複雑な相互作用を説明できない。
社会技術・AI対応システムのシステム特性の比較分析と現在のリスク評価手法のレビューを通じて、標準リスク表現における社会技術的考察が欠如していることを確認する。
このギャップを埋めるために、基本的リスク方程式に統合されるように設計された新しい社会技術的アライメント$STA$変数を導入する。
この変数は、AIシステム、ヒューマンオペレータ、組織プロセス間の調和した相互作用の度合いを推定する。
AI可能な液体水素バンカーシステムのケーススタディは、変数の関連性を実証している。
ナイーブなシステム設計と保護されたシステム設計を比較することで、STA$-augmented式が、従来のリスク評価が見落としている社会技術的安全性の影響をいかに捉え、リスク評価のより包括的な基礎を提供するかを説明する。
関連論文リスト
- MARIA: A Framework for Marginal Risk Assessment without Ground Truth in AI Systems [11.620099531890716]
既存のプロセスを置き換えるためにAIシステムをデプロイする前に、リスクを追加することなく改善を保証するために、既存のシステムと比較する必要がある。
従来の評価は両方のシステムに対して基礎的な真理に依存しているが、しばしば遅延または不可知の結果のために利用できない。
根拠的真理や絶対的リスクへの依存を避けるための限界リスク評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-31T04:18:20Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - From Silos to Systems: Process-Oriented Hazard Analysis for AI Systems [2.226040060318401]
システム理論プロセス分析(STPA)をAIの操作と開発プロセスの解析に応用する。
我々は、機械学習アルゴリズムに依存したシステムと、3つのケーススタディに焦点をあてる。
私たちは、AIシステムに適したいくつかの適応があるにもかかわらず、anAを実行するための重要な概念とステップが容易に適用できることに気付きました。
論文 参考訳(メタデータ) (2024-10-29T20:43:18Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。