論文の概要: Towards Implementing Responsible AI
- arxiv url: http://arxiv.org/abs/2205.04358v4
- Date: Wed, 4 Jan 2023 04:17:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:46:43.385398
- Title: Towards Implementing Responsible AI
- Title(参考訳): 責任あるAIの実現に向けて
- Authors: Conrad Sanderson, Qinghua Lu, David Douglas, Xiwei Xu, Liming Zhu, Jon
Whittle
- Abstract要約: 我々は,AIシステムの設計と開発において,ソフトウェア工学で使用されるプロセスに適応する4つの側面を提案する。
健全な発見は、AIシステム設計と開発、ソフトウェアエンジニアリングで使用されるプロセスの適応の4つの側面をカバーしている。
- 参考スコア(独自算出の注目度): 22.514717870367623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the deployment of artificial intelligence (AI) is changing many fields and
industries, there are concerns about AI systems making decisions and
recommendations without adequately considering various ethical aspects, such as
accountability, reliability, transparency, explainability, contestability,
privacy, and fairness. While many sets of AI ethics principles have been
recently proposed that acknowledge these concerns, such principles are
high-level and do not provide tangible advice on how to develop ethical and
responsible AI systems. To gain insight on the possible implementation of the
principles, we conducted an empirical investigation involving semi-structured
interviews with a cohort of AI practitioners. The salient findings cover four
aspects of AI system design and development, adapting processes used in
software engineering: (i) high-level view, (ii) requirements engineering, (iii)
design and implementation, (iv) deployment and operation.
- Abstract(参考訳): 人工知能(AI)の展開が多くの分野や産業を変えつつあるため、説明責任、信頼性、透明性、説明可能性、競争可能性、プライバシー、公正性など、さまざまな倫理的側面を適切に考慮することなく、AIシステムが決定と勧告を下すことに懸念がある。
これらの懸念を認める多くのAI倫理原則が最近提案されているが、そのような原則はハイレベルであり、倫理的で責任あるAIシステムを開発するための具体的なアドバイスを提供していない。
原則の実行可能性に関する洞察を得るために,我々は,ai実践者のコホートとの半構造化インタビューに関する実証調査を行った。
注目すべき発見は、aiシステムの設計と開発、ソフトウェアエンジニアリングで使われるプロセス適応の4つの側面をカバーする。
a high‐level view
(ii)要件工学
(iii)設計及び実施
(iv)展開及び運用
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - AI Ethics Principles in Practice: Perspectives of Designers and Developers [19.16435145144916]
オーストラリア国立科学研究機関(CSIRO)の研究者・技術者の実践と経験について検討する。
インタビューは、参加者の実践がオーストラリア政府によって提案された高レベルのAI倫理原則とどのように関連し、整合しているかを調べるために使用された。
論文 参考訳(メタデータ) (2021-12-14T15:28:45Z) - Software Engineering for Responsible AI: An Empirical Study and
Operationalised Patterns [20.747681252352464]
具体的なパターンの形でAI倫理原則を運用可能なテンプレートを提案する。
これらのパターンは、責任あるAIシステムの開発を容易にする具体的な、運用されたガイダンスを提供する。
論文 参考訳(メタデータ) (2021-11-18T02:18:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。