論文の概要: A Deployment Model to Extend Ethically Aligned AI Implementation Method
ECCOLA
- arxiv url: http://arxiv.org/abs/2110.05933v1
- Date: Tue, 12 Oct 2021 12:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 17:02:02.374121
- Title: A Deployment Model to Extend Ethically Aligned AI Implementation Method
ECCOLA
- Title(参考訳): 倫理指向型AI実装法ECCOLAの拡張のためのデプロイモデル
- Authors: Jani Antikainen, Mamia Agbese, Hanna-Kaisa Alanen, Erika Halme,
Hannakaisa Isom\"aki, Marianna Jantunen, Kai-Kristian Kemell, Rebekah Rousi,
Heidi Vainio-Pekka, Ville Vakkuri
- Abstract要約: 本研究の目的は、ECCOLAの採用を促進するために、ECCOLAをデプロイメントモデルで拡張することである。
このモデルには、倫理的AI開発における倫理的ギャップや成果のコミュニケーションを容易にするための単純なメトリクスが含まれている。
- 参考スコア(独自算出の注目度): 5.28595286827031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a struggle in Artificial intelligence (AI) ethics to gain ground in
actionable methods and models to be utilized by practitioners while developing
and implementing ethically sound AI systems. AI ethics is a vague concept
without a consensus of definition or theoretical grounding and bearing little
connection to practice. Practice involving primarily technical tasks like
software development is not aptly equipped to process and decide upon ethical
considerations. Efforts to create tools and guidelines to help people working
with AI development have been concentrating almost solely on the technical
aspects of AI. A few exceptions do apply, such as the ECCOLA method for
creating ethically aligned AI -systems. ECCOLA has proven results in terms of
increased ethical considerations in AI systems development. Yet, it is a novel
innovation, and room for development still exists. This study aims to extend
ECCOLA with a deployment model to drive the adoption of ECCOLA, as any method,
no matter how good, is of no value without adoption and use. The model includes
simple metrics to facilitate the communication of ethical gaps or outcomes of
ethical AI development. It offers the opportunity to assess any AI system at
any given lifecycle phase, e.g., opening possibilities like analyzing the
ethicality of an AI system under acquisition.
- Abstract(参考訳): 人工知能(AI)倫理は、倫理的に健全なAIシステムを開発、実装しながら、実践者が活用する実行可能な方法やモデルに根ざすのに苦労している。
AI倫理は定義や理論的根拠の合意なしに曖昧な概念であり、実践とはほとんど関係がない。
ソフトウェア開発のような技術的タスクを主に含むプラクティスは、倫理的考慮事項を処理し、決定するのに適していない。
AI開発に携わる人々を支援するツールやガイドラインを作成する努力は、AIの技術的な側面にのみ集中してきた。
倫理的に整合したAIシステムを作成するECCOLAメソッドなど、いくつかの例外が適用される。
ECCOLAは、AIシステム開発における倫理的配慮の増加という観点から、成果を証明している。
しかし、これは新しいイノベーションであり、開発の余地はまだ残っている。
本研究は、ECCOLAをデプロイモデルで拡張して、ECCOLAの採用を促進することを目的としている。
このモデルは、倫理的AI開発における倫理的ギャップや成果のコミュニケーションを容易にするための単純なメトリクスを含んでいる。
任意のライフサイクルフェーズにおいて、任意のAIシステムを評価する機会を提供する。例えば、取得中のAIシステムの倫理性を分析するなどの可能性を開く。
関連論文リスト
- Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - RE-centric Recommendations for the Development of Trustworthy(er)
Autonomous Systems [4.268504966623082]
EU AI Act(AIA)ガイドラインを遵守し、AIシステムの開発と実装は、間もなくEU内で必須となる。
実践者は、AIシステム開発中に倫理を運用するための実行可能な指示を欠いている。
異なる倫理的ガイドラインの文献レビューでは、対処された原則とそれらを記述するために使用される用語の矛盾が明らかになった。
論文 参考訳(メタデータ) (2023-05-29T11:57:07Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Governance of Ethical and Trustworthy AI Systems: Research Gaps in the
ECCOLA Method [5.28595286827031]
本研究は倫理的かつ信頼性の高いAIシステムを開発するためのECCOLA手法を分析する。
その結果、ECCOLAはすべてのプロセスにおいて、企業のガバナンスプラクティスにおけるAIガバナンスを完全に促進しますが、そのプラクティスの一部は、データガバナンスと情報ガバナンスのプラクティスを完全には育んでいません。
論文 参考訳(メタデータ) (2021-11-11T13:54:31Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Ethics as a service: a pragmatic operationalisation of AI Ethics [1.1083289076967895]
ギャップは、AI倫理原則の理論と、AIシステムの実践的設計の間に存在している。
これは、原則と技術的な翻訳ツールが、たとえ制限されているとしても、なぜまだ必要であるのかを探求することによって、ここで解決しようとしている問題です。
論文 参考訳(メタデータ) (2021-02-11T21:29:25Z) - Implementing AI Ethics in Practice: An Empirical Evaluation of the
RESOLVEDD Strategy [6.7298812735467095]
我々は,ビジネス倫理学の分野であるRESOLVEDD戦略から,倫理システム開発の文脈において,既存の手法を実証的に評価する。
私たちの重要な発見の1つは、倫理的手法の使用が参加者に強制されたとしても、その利用はプロジェクトにおける倫理的配慮を促進したことである。
論文 参考訳(メタデータ) (2020-04-21T17:58:53Z) - ECCOLA -- a Method for Implementing Ethically Aligned AI Systems [11.31664099885664]
本稿では,AI倫理を実践する手法を提案する。
この手法であるECCOLAは循環行動設計研究手法を用いて反復的に開発されている。
論文 参考訳(メタデータ) (2020-04-17T17:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。