論文の概要: Responsible AI and Its Stakeholders
- arxiv url: http://arxiv.org/abs/2004.11434v1
- Date: Thu, 23 Apr 2020 19:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 10:05:02.646613
- Title: Responsible AI and Its Stakeholders
- Title(参考訳): 責任あるAIとそのステークホルダー
- Authors: Gabriel Lima, Meeyoung Cha
- Abstract要約: 我々は、AIを含むすべての利害関係者に対する責任(責任、責任、責任)の3つの概念について議論し、この問題における司法権と一般市民の役割を提案する。
- 参考スコア(独自算出の注目度): 14.129366395072026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Responsible Artificial Intelligence (AI) proposes a framework that holds all
stakeholders involved in the development of AI to be responsible for their
systems. It, however, fails to accommodate the possibility of holding AI
responsible per se, which could close some legal and moral gaps concerning the
deployment of autonomous and self-learning systems. We discuss three notions of
responsibility (i.e., blameworthiness, accountability, and liability) for all
stakeholders, including AI, and suggest the roles of jurisdiction and the
general public in this matter.
- Abstract(参考訳): Responsible Artificial Intelligence (AI)は、AIの開発に関わるすべてのステークホルダーがシステムに責任を持つためのフレームワークを提案する。
しかし、AIが自己学習システムの展開に関して法的、道徳的なギャップを埋める可能性があるため、AIが自ら責任を負う可能性を許容できない。
我々は、aiを含むすべての利害関係者に対する責任(責任性、説明責任、責任性)の3つの概念を議論し、この問題における管轄権と一般市民の役割を示唆する。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Research Needs Impact Statements Too [51.37368267352821]
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
論文 参考訳(メタデータ) (2023-11-20T14:02:28Z) - Unravelling Responsibility for AI [4.651940161506203]
本稿では「アクターAはOccurrence Oに責任を持つ」という三項の定式化を行い、Aのサブカテゴリの有効な組み合わせ、Aのサブカテゴリ、Oの責務、およびOを特定する。
これらの有効な組み合わせは、役割責任、因果責任、法的責任責任、道徳的責任の4つの感覚に分けられる。
目的は、これらの文字列が、異なるアクターが異なるアクターに責任を負う異なる方法を明確にし、明確にするための、規律にまたがる人々のための語彙を提供することである。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Towards a Roadmap on Software Engineering for Responsible AI [17.46300715928443]
本稿では,責任あるAIのためのソフトウェア工学のロードマップを作成することを目的とする。
ロードマップは、(i)責任AIシステムのためのマルチレベルガバナンスの確立、(ii)責任AIシステムのためのプロセス指向のプラクティスを取り入れた開発プロセスのセットアップ、(iii)システムレベルのアーキテクチャスタイル、パターン、テクニックを通じて責任AIをAIシステムにバイデザインする構築に焦点を当てている。
論文 参考訳(メタデータ) (2022-03-09T07:01:32Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - AI and Ethics -- Operationalising Responsible AI [13.781989627894813]
AIに対する公的な信頼の構築と維持が、成功と持続可能なイノベーションの鍵であると認識されている。
この章では、倫理的AI原則の運用に関する課題について論じ、高いレベルの倫理的AI原則をカバーする統合的な見解を提示している。
論文 参考訳(メタデータ) (2021-05-19T00:55:40Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。