論文の概要: Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions
- arxiv url: http://arxiv.org/abs/2305.11581v1
- Date: Fri, 19 May 2023 10:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:57:07.096628
- Title: Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions
- Title(参考訳): 製造とサプライチェーンにおける信頼できる、責任ある倫理的AI--合成と新たな研究課題
- Authors: Alexandra Brintrup, George Baryannis, Ashutosh Tiwari, Svetan Ratchev,
Giovanna Martinez-Arellano, Jatinder Singh
- Abstract要約: 製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
- 参考スコア(独自算出の注目度): 59.34177693293227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the increased use of AI in the manufacturing sector has been widely
noted, there is little understanding on the risks that it may raise in a
manufacturing organisation. Although various high level frameworks and
definitions have been proposed to consolidate potential risks, practitioners
struggle with understanding and implementing them.
This lack of understanding exposes manufacturing to a multitude of risks,
including the organisation, its workers, as well as suppliers and clients. In
this paper, we explore and interpret the applicability of responsible, ethical,
and trustworthy AI within the context of manufacturing. We then use a broadened
adaptation of a machine learning lifecycle to discuss, through the use of
illustrative examples, how each step may result in a given AI trustworthiness
concern. We additionally propose a number of research questions to the
manufacturing research community, in order to help guide future research so
that the economic and societal benefits envisaged by AI in manufacturing are
delivered safely and responsibly.
- Abstract(参考訳): 製造業におけるAIの利用の増加は注目されているが、製造業組織においてAIがもたらすリスクについてはほとんど理解されていない。
潜在的なリスクを統合するために様々な高度なフレームワークや定義が提案されているが、実践者は理解と実装に苦労している。
この理解の欠如により、製造業は組織やその労働者、サプライヤーや顧客を含む多くのリスクにさらされる。
本稿では,製造における責任,倫理的,信頼に値するAIの適用性について検討し,解釈する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
また,製造におけるAIによる経済的・社会的利益が安全かつ責任を持って届けられるように,今後の研究の指導を支援するために,製造研究コミュニティにいくつかの研究課題を提案する。
関連論文リスト
- Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Applications and Societal Implications of Artificial Intelligence in
Manufacturing: A Systematic Review [0.3867363075280544]
この研究は、AIが企業に与える影響について、以前の文献では概して楽観的な見通しがあることを示している。
この論文は、産業AIの潜在的な社会的影響に関する文脈的視点を提供するために、歴史的事例や他の例に類似している。
論文 参考訳(メタデータ) (2023-07-25T07:17:37Z) - The Digital Divide in Process Safety: Quantitative Risk Analysis of
Human-AI Collaboration [3.9596068699962323]
i) プロセス安全性におけるAIとは何か (ii) プロセス安全性におけるAIと人間の違いは何か (iii) プロセス安全性においてAIと人間はどのように協力するのか?
人間の信頼性の重要性は、通常AIの信頼性を高めるためにではなく、デジタル時代において強調されるべきである。
論文 参考訳(メタデータ) (2023-05-29T03:39:48Z) - A Brief Overview of AI Governance for Responsible Machine Learning
Systems [3.222802562733787]
このポジションペーパーは、AIの責任ある使用を監督するように設計されたフレームワークである、AIガバナンスの簡単な紹介を提案する。
AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
論文 参考訳(メタデータ) (2022-11-21T23:48:51Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。