論文の概要: The Digital Divide in Process Safety: Quantitative Risk Analysis of
Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2305.17873v1
- Date: Mon, 29 May 2023 03:39:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 16:07:28.390532
- Title: The Digital Divide in Process Safety: Quantitative Risk Analysis of
Human-AI Collaboration
- Title(参考訳): プロセス安全性のディジタル分割:ヒューマン・aiコラボレーションの定量的リスク分析
- Authors: He Wen
- Abstract要約: i) プロセス安全性におけるAIとは何か (ii) プロセス安全性におけるAIと人間の違いは何か (iii) プロセス安全性においてAIと人間はどのように協力するのか?
人間の信頼性の重要性は、通常AIの信頼性を高めるためにではなく、デジタル時代において強調されるべきである。
- 参考スコア(独自算出の注目度): 3.9596068699962323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digital technologies have dramatically accelerated the digital transformation
in process industries, boosted new industrial applications, upgraded the
production system, and enhanced operational efficiency. In contrast, the
challenges and gaps between human and artificial intelligence (AI) have become
more and more prominent, whereas the digital divide in process safety is
aggregating. The study attempts to address the following questions: (i)What is
AI in the process safety context? (ii)What is the difference between AI and
humans in process safety? (iii)How do AI and humans collaborate in process
safety? (iv)What are the challenges and gaps in human-AI collaboration? (v)How
to quantify the risk of human-AI collaboration in process safety? Qualitative
risk analysis based on brainstorming and literature review, and quantitative
risk analysis based on layer of protection analysis (LOPA) and Bayesian network
(BN), were applied to explore and model. The importance of human reliability
should be stressed in the digital age, not usually to increase the reliability
of AI, and human-centered AI design in process safety needs to be propagated.
- Abstract(参考訳): デジタル技術は、プロセス産業におけるデジタルトランスフォーメーションを劇的に加速させ、新しい産業応用を促進し、生産システムを改良し、運用効率を高めた。
対照的に、人間と人工知能(AI)の課題とギャップはますます顕著になってきている。
この研究は以下の疑問に対処しようと試みている。
i)プロセス安全性の文脈におけるAIとは何か?
(ii)プロセス安全性におけるAIと人間の違いは何か。
(iii)aiと人間はプロセスセーフティにどのように協力するのか?
(4)人間とAIのコラボレーションにおける課題とギャップは何か。
(v)プロセス安全性における人間とAIの協調のリスクの定量化
ブレインストーミングと文献レビューに基づく質的リスク分析,および保護層分析 (lopa) とベイズネットワーク (bn) に基づく定量的リスク分析を用いて探索とモデル化を行った。
人間の信頼性の重要性は、通常AIの信頼性を高めるためにではなく、デジタル時代において強調されなければならない。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - The Model Mastery Lifecycle: A Framework for Designing Human-AI Interaction [0.0]
ますます多くの分野におけるAIの利用は、長いプロセスの最新のイテレーションである。
異なる状況でAIをどのように使うべきかを決定する方法が緊急に必要である。
論文 参考訳(メタデータ) (2024-08-23T01:00:32Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Human-AI Safety: A Descendant of Generative AI and Control Systems Safety [6.100304850888953]
先進的なAI技術に対する有意義な安全性保証には、AI出力と人間の振る舞いによって形成されるフィードバックループが、どのようにして異なる結果に向かって相互作用を駆動するかについての推論が必要である、と我々は主張する。
我々は、次世代の人間中心AI安全性に向けた具体的な技術ロードマップを提案する。
論文 参考訳(メタデータ) (2024-05-16T03:52:00Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - Alert of the Second Decision-maker: An Introduction to Human-AI Conflict [3.9596068699962323]
人間と人工知能(AI)は、同期して働くときに観察、解釈、行動の衝突を持つことがある。
本稿では,人間とAIの対立概念,原因,測定方法,リスク評価を体系的に紹介する。
論文 参考訳(メタデータ) (2023-05-25T21:15:55Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - On Safety Assessment of Artificial Intelligence [0.0]
人工知能の多くのモデル、特に機械学習は統計モデルであることを示す。
危険なランダム障害の予算の一部は、AIシステムの確率論的欠陥行動に使用される必要がある。
我々は、安全関連システムにおけるAIの利用に決定的な研究課題を提案する。
論文 参考訳(メタデータ) (2020-02-29T14:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。