論文の概要: Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions
- arxiv url: http://arxiv.org/abs/2305.11581v1
- Date: Fri, 19 May 2023 10:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:57:07.096628
- Title: Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions
- Title(参考訳): 製造とサプライチェーンにおける信頼できる、責任ある倫理的AI--合成と新たな研究課題
- Authors: Alexandra Brintrup, George Baryannis, Ashutosh Tiwari, Svetan Ratchev,
Giovanna Martinez-Arellano, Jatinder Singh
- Abstract要約: 製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
- 参考スコア(独自算出の注目度): 59.34177693293227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the increased use of AI in the manufacturing sector has been widely
noted, there is little understanding on the risks that it may raise in a
manufacturing organisation. Although various high level frameworks and
definitions have been proposed to consolidate potential risks, practitioners
struggle with understanding and implementing them.
This lack of understanding exposes manufacturing to a multitude of risks,
including the organisation, its workers, as well as suppliers and clients. In
this paper, we explore and interpret the applicability of responsible, ethical,
and trustworthy AI within the context of manufacturing. We then use a broadened
adaptation of a machine learning lifecycle to discuss, through the use of
illustrative examples, how each step may result in a given AI trustworthiness
concern. We additionally propose a number of research questions to the
manufacturing research community, in order to help guide future research so
that the economic and societal benefits envisaged by AI in manufacturing are
delivered safely and responsibly.
- Abstract(参考訳): 製造業におけるAIの利用の増加は注目されているが、製造業組織においてAIがもたらすリスクについてはほとんど理解されていない。
潜在的なリスクを統合するために様々な高度なフレームワークや定義が提案されているが、実践者は理解と実装に苦労している。
この理解の欠如により、製造業は組織やその労働者、サプライヤーや顧客を含む多くのリスクにさらされる。
本稿では,製造における責任,倫理的,信頼に値するAIの適用性について検討し,解釈する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
また,製造におけるAIによる経済的・社会的利益が安全かつ責任を持って届けられるように,今後の研究の指導を支援するために,製造研究コミュニティにいくつかの研究課題を提案する。
関連論文リスト
- Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Towards Trustworthy AI: A Review of Ethical and Robust Large Language Models [1.7466076090043157]
大きな言語モデル(LLM)は多くの分野を変革できるが、その急速な開発は、監視、倫理的創造、ユーザ信頼の構築に重大な課題を生み出している。
この総合的なレビューは、意図しない害、透明性の欠如、攻撃に対する脆弱性、人的価値との整合性、環境への影響など、LLMにおける重要な信頼の問題について考察する。
これらの課題に対処するため、倫理的監視、業界説明責任、規制、公的な関与を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-06-01T14:47:58Z) - The Narrow Depth and Breadth of Corporate Responsible AI Research [3.364518262921329]
私たちは、AI企業の大多数が、この重要なAIのサブフィールドにおいて、限られた、あるいは全く関与していないことを示している。
主要なAI企業は、従来のAI研究に比べて、責任あるAI研究のアウトプットが著しく低い。
当社の結果は、業界が責任あるAI研究を公然と行う必要性を浮き彫りにしたものだ。
論文 参考訳(メタデータ) (2024-05-20T17:26:43Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Applications and Societal Implications of Artificial Intelligence in
Manufacturing: A Systematic Review [0.3867363075280544]
この研究は、AIが企業に与える影響について、以前の文献では概して楽観的な見通しがあることを示している。
この論文は、産業AIの潜在的な社会的影響に関する文脈的視点を提供するために、歴史的事例や他の例に類似している。
論文 参考訳(メタデータ) (2023-07-25T07:17:37Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。