論文の概要: The Digital Divide in Process Safety: Quantitative Risk Analysis of
Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2305.17873v1
- Date: Mon, 29 May 2023 03:39:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 16:07:28.390532
- Title: The Digital Divide in Process Safety: Quantitative Risk Analysis of
Human-AI Collaboration
- Title(参考訳): プロセス安全性のディジタル分割:ヒューマン・aiコラボレーションの定量的リスク分析
- Authors: He Wen
- Abstract要約: i) プロセス安全性におけるAIとは何か (ii) プロセス安全性におけるAIと人間の違いは何か (iii) プロセス安全性においてAIと人間はどのように協力するのか?
人間の信頼性の重要性は、通常AIの信頼性を高めるためにではなく、デジタル時代において強調されるべきである。
- 参考スコア(独自算出の注目度): 3.9596068699962323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digital technologies have dramatically accelerated the digital transformation
in process industries, boosted new industrial applications, upgraded the
production system, and enhanced operational efficiency. In contrast, the
challenges and gaps between human and artificial intelligence (AI) have become
more and more prominent, whereas the digital divide in process safety is
aggregating. The study attempts to address the following questions: (i)What is
AI in the process safety context? (ii)What is the difference between AI and
humans in process safety? (iii)How do AI and humans collaborate in process
safety? (iv)What are the challenges and gaps in human-AI collaboration? (v)How
to quantify the risk of human-AI collaboration in process safety? Qualitative
risk analysis based on brainstorming and literature review, and quantitative
risk analysis based on layer of protection analysis (LOPA) and Bayesian network
(BN), were applied to explore and model. The importance of human reliability
should be stressed in the digital age, not usually to increase the reliability
of AI, and human-centered AI design in process safety needs to be propagated.
- Abstract(参考訳): デジタル技術は、プロセス産業におけるデジタルトランスフォーメーションを劇的に加速させ、新しい産業応用を促進し、生産システムを改良し、運用効率を高めた。
対照的に、人間と人工知能(AI)の課題とギャップはますます顕著になってきている。
この研究は以下の疑問に対処しようと試みている。
i)プロセス安全性の文脈におけるAIとは何か?
(ii)プロセス安全性におけるAIと人間の違いは何か。
(iii)aiと人間はプロセスセーフティにどのように協力するのか?
(4)人間とAIのコラボレーションにおける課題とギャップは何か。
(v)プロセス安全性における人間とAIの協調のリスクの定量化
ブレインストーミングと文献レビューに基づく質的リスク分析,および保護層分析 (lopa) とベイズネットワーク (bn) に基づく定量的リスク分析を用いて探索とモデル化を行った。
人間の信頼性の重要性は、通常AIの信頼性を高めるためにではなく、デジタル時代において強調されなければならない。
関連論文リスト
- Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - Alert of the Second Decision-maker: An Introduction to Human-AI Conflict [3.9596068699962323]
人間と人工知能(AI)は、同期して働くときに観察、解釈、行動の衝突を持つことがある。
本稿では,人間とAIの対立概念,原因,測定方法,リスク評価を体系的に紹介する。
論文 参考訳(メタデータ) (2023-05-25T21:15:55Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - X-Risk Analysis for AI Research [24.78742908726579]
我々は、AI x-riskの分析方法のガイドを提供する。
まず、今日のシステムの安全性についてレビューする。
次に,今後のシステムの安全性に長期的影響を与える戦略について議論する。
論文 参考訳(メタデータ) (2022-06-13T00:22:50Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - On Safety Assessment of Artificial Intelligence [0.0]
人工知能の多くのモデル、特に機械学習は統計モデルであることを示す。
危険なランダム障害の予算の一部は、AIシステムの確率論的欠陥行動に使用される必要がある。
我々は、安全関連システムにおけるAIの利用に決定的な研究課題を提案する。
論文 参考訳(メタデータ) (2020-02-29T14:05:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。