論文の概要: Governance of Ethical and Trustworthy AI Systems: Research Gaps in the
ECCOLA Method
- arxiv url: http://arxiv.org/abs/2111.06207v1
- Date: Thu, 11 Nov 2021 13:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 10:00:13.661084
- Title: Governance of Ethical and Trustworthy AI Systems: Research Gaps in the
ECCOLA Method
- Title(参考訳): 倫理的・信頼できるAIシステムのガバナンス:ECCOLA法による研究ギャップ
- Authors: Mamia Agbese, Hanna-Kaisa Alanen, Jani Antikainen, Erika Halme,
Hannakaisa Isom\"aki, Marianna Jantunen, Kai-Kristian Kemell, Rebekah Rousi,
Heidi Vainio-Pekka and Ville Vakkuri
- Abstract要約: 本研究は倫理的かつ信頼性の高いAIシステムを開発するためのECCOLA手法を分析する。
その結果、ECCOLAはすべてのプロセスにおいて、企業のガバナンスプラクティスにおけるAIガバナンスを完全に促進しますが、そのプラクティスの一部は、データガバナンスと情報ガバナンスのプラクティスを完全には育んでいません。
- 参考スコア(独自算出の注目度): 5.28595286827031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in machine learning (ML) technologies have greatly improved
Artificial Intelligence (AI) systems. As a result, AI systems have become
ubiquitous, with their application prevalent in virtually all sectors. However,
AI systems have prompted ethical concerns, especially as their usage crosses
boundaries in sensitive areas such as healthcare, transportation, and security.
As a result, users are calling for better AI governance practices in ethical AI
systems. Therefore, AI development methods are encouraged to foster these
practices. This research analyzes the ECCOLA method for developing ethical and
trustworthy AI systems to determine if it enables AI governance in development
processes through ethical practices. The results demonstrate that while ECCOLA
fully facilitates AI governance in corporate governance practices in all its
processes, some of its practices do not fully foster data governance and
information governance practices. This indicates that the method can be further
improved.
- Abstract(参考訳): 機械学習(ML)技術の進歩は人工知能(AI)システムを大幅に改善した。
その結果、AIシステムはユビキタスになり、その応用は事実上すべての分野に広まっている。
しかし、AIシステムは特に、医療、交通、セキュリティといった機密性の高い領域の境界を越えて、倫理的な懸念を引き起こしている。
その結果、ユーザーは倫理的AIシステムにおけるより良いAIガバナンスの実践を求めている。
したがって、AI開発手法はこれらのプラクティスを育むために奨励される。
本研究は、倫理的・信頼性の高いAIシステムを開発するためのECCOLA手法を分析し、倫理的実践を通じて開発プロセスにおけるAIガバナンスを可能にするかどうかを判断する。
その結果、ECCOLAはすべてのプロセスにおいて、企業のガバナンスプラクティスにおけるAIガバナンスを完全に促進しますが、そのプラクティスの一部は、データガバナンスと情報ガバナンスのプラクティスを完全には育成していません。
これは、この方法をさらに改善できることを示している。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - A Deployment Model to Extend Ethically Aligned AI Implementation Method
ECCOLA [5.28595286827031]
本研究の目的は、ECCOLAの採用を促進するために、ECCOLAをデプロイメントモデルで拡張することである。
このモデルには、倫理的AI開発における倫理的ギャップや成果のコミュニケーションを容易にするための単純なメトリクスが含まれている。
論文 参考訳(メタデータ) (2021-10-12T12:22:34Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z) - ECCOLA -- a Method for Implementing Ethically Aligned AI Systems [11.31664099885664]
本稿では,AI倫理を実践する手法を提案する。
この手法であるECCOLAは循環行動設計研究手法を用いて反復的に開発されている。
論文 参考訳(メタデータ) (2020-04-17T17:57:07Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。