論文の概要: Responsible Design Patterns for Machine Learning Pipelines
- arxiv url: http://arxiv.org/abs/2306.01788v3
- Date: Wed, 7 Jun 2023 21:55:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 10:55:28.537117
- Title: Responsible Design Patterns for Machine Learning Pipelines
- Title(参考訳): 機械学習パイプラインの責任ある設計パターン
- Authors: Saud Hakem Al Harbi, Lionel Nganyewou Tidjon and Foutse Khomh
- Abstract要約: AI倫理には、AIシステムのライフサイクル全体に倫理的原則を適用することが含まれる。
これは、バイアスなどのAIに関連する潜在的なリスクと害を軽減するために不可欠である。
この目標を達成するために、責任あるデザインパターン(RDP)は機械学習(ML)パイプラインに不可欠である。
- 参考スコア(独自算出の注目度): 10.184056098238765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating ethical practices into the AI development process for artificial
intelligence (AI) is essential to ensure safe, fair, and responsible operation.
AI ethics involves applying ethical principles to the entire life cycle of AI
systems. This is essential to mitigate potential risks and harms associated
with AI, such as algorithm biases. To achieve this goal, responsible design
patterns (RDPs) are critical for Machine Learning (ML) pipelines to guarantee
ethical and fair outcomes. In this paper, we propose a comprehensive framework
incorporating RDPs into ML pipelines to mitigate risks and ensure the ethical
development of AI systems. Our framework comprises new responsible AI design
patterns for ML pipelines identified through a survey of AI ethics and data
management experts and validated through real-world scenarios with expert
feedback. The framework guides AI developers, data scientists, and
policy-makers to implement ethical practices in AI development and deploy
responsible AI systems in production.
- Abstract(参考訳): 人工知能(AI)のためのAI開発プロセスに倫理的プラクティスを統合することは、安全で公平で責任ある操作を保証するために不可欠である。
AI倫理には、AIシステムのライフサイクル全体に倫理的原則を適用することが含まれる。
これは、アルゴリズムバイアスのようなAIに関連する潜在的なリスクと害を軽減するために不可欠である。
この目標を達成するために、責任あるデザインパターン(RDP)は、倫理的かつ公正な結果を保証するために機械学習(ML)パイプラインにとって不可欠である。
本稿では,リスクを軽減し,AIシステムの倫理的発展を保証するため,RTPをMLパイプラインに組み込んだ包括的なフレームワークを提案する。
我々のフレームワークは、AI倫理とデータ管理の専門家の調査を通じて特定されたMLパイプラインのための新しい責任あるAI設計パターンで構成され、専門家のフィードバックで現実のシナリオを通して検証される。
このフレームワークは、AI開発者、データサイエンティスト、政策立案者に対して、AI開発に倫理的プラクティスを実践し、責任あるAIシステムを本番環境にデプロイするように誘導する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Software Engineering for Responsible AI: An Empirical Study and
Operationalised Patterns [20.747681252352464]
具体的なパターンの形でAI倫理原則を運用可能なテンプレートを提案する。
これらのパターンは、責任あるAIシステムの開発を容易にする具体的な、運用されたガイダンスを提供する。
論文 参考訳(メタデータ) (2021-11-18T02:18:27Z) - Beyond Fairness Metrics: Roadblocks and Challenges for Ethical AI in
Practice [2.1485350418225244]
我々は,現代産業・社会利用の規模で倫理的AIを構築し,展開する上での実践的課題を概観する。
我々は、倫理的AIを実際に構築するには、AIシステムの開発と展開における倫理の全体的考慮が必要であると論じる。
論文 参考訳(メタデータ) (2021-08-11T18:33:17Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。