論文の概要: Responsible AI and Its Stakeholders
- arxiv url: http://arxiv.org/abs/2004.11434v1
- Date: Thu, 23 Apr 2020 19:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 10:05:02.646613
- Title: Responsible AI and Its Stakeholders
- Title(参考訳): 責任あるAIとそのステークホルダー
- Authors: Gabriel Lima, Meeyoung Cha
- Abstract要約: 我々は、AIを含むすべての利害関係者に対する責任(責任、責任、責任)の3つの概念について議論し、この問題における司法権と一般市民の役割を提案する。
- 参考スコア(独自算出の注目度): 14.129366395072026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Responsible Artificial Intelligence (AI) proposes a framework that holds all
stakeholders involved in the development of AI to be responsible for their
systems. It, however, fails to accommodate the possibility of holding AI
responsible per se, which could close some legal and moral gaps concerning the
deployment of autonomous and self-learning systems. We discuss three notions of
responsibility (i.e., blameworthiness, accountability, and liability) for all
stakeholders, including AI, and suggest the roles of jurisdiction and the
general public in this matter.
- Abstract(参考訳): Responsible Artificial Intelligence (AI)は、AIの開発に関わるすべてのステークホルダーがシステムに責任を持つためのフレームワークを提案する。
しかし、AIが自己学習システムの展開に関して法的、道徳的なギャップを埋める可能性があるため、AIが自ら責任を負う可能性を許容できない。
我々は、aiを含むすべての利害関係者に対する責任(責任性、説明責任、責任性)の3つの概念を議論し、この問題における管轄権と一般市民の役割を示唆する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - AI Governance and Accountability: An Analysis of Anthropic's Claude [0.0]
本稿では,基本的AIモデルであるArthropicのClaudeに着目し,AIガバナンスの展望について考察する。
我々は、NIST AI Risk Management FrameworkとEU AI Actのレンズを通してCludeを分析し、潜在的な脅威を特定し、緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-05-02T23:37:06Z) - Responsible AI Research Needs Impact Statements Too [51.37368267352821]
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
論文 参考訳(メタデータ) (2023-11-20T14:02:28Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Unravelling Responsibility for AI [0.8836921728313208]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - AI and Ethics -- Operationalising Responsible AI [13.781989627894813]
AIに対する公的な信頼の構築と維持が、成功と持続可能なイノベーションの鍵であると認識されている。
この章では、倫理的AI原則の運用に関する課題について論じ、高いレベルの倫理的AI原則をカバーする統合的な見解を提示している。
論文 参考訳(メタデータ) (2021-05-19T00:55:40Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。