論文の概要: Negative Human Rights as a Basis for Long-term AI Safety and Regulation
- arxiv url: http://arxiv.org/abs/2208.14788v2
- Date: Thu, 20 Apr 2023 09:27:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 17:16:27.847320
- Title: Negative Human Rights as a Basis for Long-term AI Safety and Regulation
- Title(参考訳): 長期的なAI安全と規制の基盤としての否定的人権
- Authors: Ondrej Bajgar and Jan Horenovsky
- Abstract要約: 有害な行動を認識して回避するために自律的なAIシステムを導く一般的な原則は、規制の拘束システムによって支持される必要がある。
技術的実装に十分な仕様でなければならない。
この記事は、このような原則の役割を負の人権がどのように満たすかを説明するために、法律からインスピレーションを得ている。
- 参考スコア(独自算出の注目度): 1.5229257192293197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: If autonomous AI systems are to be reliably safe in novel situations, they
will need to incorporate general principles guiding them to recognize and avoid
harmful behaviours. Such principles may need to be supported by a binding
system of regulation, which would need the underlying principles to be widely
accepted. They should also be specific enough for technical implementation.
Drawing inspiration from law, this article explains how negative human rights
could fulfil the role of such principles and serve as a foundation both for an
international regulatory system and for building technical safety constraints
for future AI systems.
- Abstract(参考訳): 自律型AIシステムが新しい状況で確実に安全であるためには、有害な行動を認識して回避するための一般的な原則を取り入れる必要がある。
このような原則は規制の拘束システムによって支持される必要があり、基礎となる原則が広く受け入れられる必要がある。
技術的な実装にも十分特化すべきである。
この記事では、法律からインスピレーションを得て、否定的な人権がそのような原則の役割を果たし、国際規制システムと将来のaiシステムのための技術的安全制約を構築するための基盤となるかを説明します。
関連論文リスト
- Considering Fundamental Rights in the European Standardisation of Artificial Intelligence: Nonsense or Strategic Alliance? [0.0]
この章は、AI標準と基本的権利の関係を明確にすることを目的としている。
取り組んだ主な問題は、将来のAI法に基づく調和された標準の採用が、基本的権利を考慮に入れるべきかどうかである。
論文 参考訳(メタデータ) (2024-01-23T10:17:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Normative Ethics Principles for Responsible AI Systems: Taxonomy and
Future Directions [2.202803272456695]
我々は,コンピュータ科学の文献を調査し,AIで運用可能な23の規範的倫理原則の分類法を開発した。
我々は,この分類が,責任あるAIシステムに規範的倫理原則を組み込む方法論の開発を促進することを想定している。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Regulating Safety and Security in Autonomous Robotic Systems [0.0]
自律システムの規則は、しばしば定式化するのが困難である。
宇宙や原子力分野では、アプリケーションはより異なる傾向にあるため、一般的な安全原則が開発されている。
これにより、新しいアプリケーションが安全のために評価されるが、形式化することは困難である。
我々は、自律・ロボットシステムのガイドラインを開発するために、規制当局や宇宙・原子力分野のコミュニティと協力しています。
論文 参考訳(メタデータ) (2020-07-09T16:33:14Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。