論文の概要: Negative Human Rights as a Basis for Long-term AI Safety and Regulation
- arxiv url: http://arxiv.org/abs/2208.14788v1
- Date: Wed, 31 Aug 2022 11:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:48:00.375212
- Title: Negative Human Rights as a Basis for Long-term AI Safety and Regulation
- Title(参考訳): 長期的なAI安全と規制の基盤としての否定的人権
- Authors: Ondrej Bajgar and Jan Horenovsky
- Abstract要約: 将来のAIシステムは、どの結果や行動が有害かを認識する必要がある。
原則は規制の拘束システムによって支持される必要がある。
技術的実装に十分な仕様でなければならない。
- 参考スコア(独自算出の注目度): 1.5229257192293197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: If future AI systems are to be reliably safe in novel situations, they will
need to incorporate general principles guiding them to robustly recognize which
outcomes and behaviours would be harmful. Such principles may need to be
supported by a binding system of regulation, which would need the underlying
principles to be widely accepted. They should also be specific enough for
technical implementation. Drawing inspiration from law, this article explains
how negative human rights could fulfil the role of such principles and serve as
a foundation both for an international regulatory system and for building
technical safety constraints for future AI systems.
- Abstract(参考訳): 将来のAIシステムが新しい状況で確実に安全であるためには、どの結果や行動が有害であるかを確実に認識するための一般的な原則を取り入れなければならない。
このような原則は規制の拘束システムによって支持される必要があり、基礎となる原則が広く受け入れられる必要がある。
技術的な実装にも十分特化すべきである。
この記事では、法律からインスピレーションを得て、否定的な人権がそのような原則の役割を果たし、国際規制システムと将来のaiシステムのための技術的安全制約を構築するための基盤となるかを説明します。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Normative Ethics Principles for Responsible AI Systems: Taxonomy and
Future Directions [2.202803272456695]
我々は,コンピュータ科学の文献を調査し,AIで運用可能な23の規範的倫理原則の分類法を開発した。
我々は,この分類が,責任あるAIシステムに規範的倫理原則を組み込む方法論の開発を促進することを想定している。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - Regulating Safety and Security in Autonomous Robotic Systems [0.0]
自律システムの規則は、しばしば定式化するのが困難である。
宇宙や原子力分野では、アプリケーションはより異なる傾向にあるため、一般的な安全原則が開発されている。
これにより、新しいアプリケーションが安全のために評価されるが、形式化することは困難である。
我々は、自律・ロボットシステムのガイドラインを開発するために、規制当局や宇宙・原子力分野のコミュニティと協力しています。
論文 参考訳(メタデータ) (2020-07-09T16:33:14Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。