論文の概要: Delegating Responsibilities to Intelligent Autonomous Systems: Challenges and Benefits
- arxiv url: http://arxiv.org/abs/2411.15147v1
- Date: Wed, 06 Nov 2024 18:40:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-01 05:39:32.923770
- Title: Delegating Responsibilities to Intelligent Autonomous Systems: Challenges and Benefits
- Title(参考訳): インテリジェントな自律システムへの責任を委譲する - 課題とメリット
- Authors: Gordana Dodig-Crnkovic, Gianfranco Basti, Tobias Holstein,
- Abstract要約: AIシステムは自律性と適応性で機能するので、技術的社会システムにおける伝統的な道徳的責任の境界が課題となっている。
本稿では,知的自律エージェントへの責任委譲に関する議論の進展と,そのような実践の倫理的意味について考察する。
- 参考スコア(独自算出の注目度): 1.7205106391379026
- License:
- Abstract: As AI systems increasingly operate with autonomy and adaptability, the traditional boundaries of moral responsibility in techno-social systems are being challenged. This paper explores the evolving discourse on the delegation of responsibilities to intelligent autonomous agents and the ethical implications of such practices. Synthesizing recent developments in AI ethics, including concepts of distributed responsibility and ethical AI by design, the paper proposes a functionalist perspective as a framework. This perspective views moral responsibility not as an individual trait but as a role within a socio-technical system, distributed among human and artificial agents. As an example of 'AI ethical by design,' we present Basti and Vitiello's implementation. They suggest that AI can act as artificial moral agents by learning ethical guidelines and using Deontic Higher-Order Logic to assess decisions ethically. Motivated by the possible speed and scale beyond human supervision and ethical implications, the paper argues for 'AI ethical by design', while acknowledging the distributed, shared, and dynamic nature of responsibility. This functionalist approach offers a practical framework for navigating the complexities of AI ethics in a rapidly evolving technological landscape.
- Abstract(参考訳): AIシステムが自律性と適応性でますます運用されるようになるにつれ、技術的社会システムにおける伝統的な道徳的責任の境界が課題となっている。
本稿では,知的自律エージェントへの責任委譲に関する議論の進展と,そのような実践の倫理的意味について考察する。
分散責任の概念や設計による倫理的AIなど,近年のAI倫理の展開を合成し,フレームワークとしての機能主義的視点を提案する。
この視点は、道徳的責任は個人の特性ではなく、人間と人工エージェントの間で分配される社会技術システムにおける役割であると見なしている。
デザインによるAI倫理」の一例として、バスティとヴィチェッロの実践を紹介する。
倫理的ガイドラインを学習し、決定を倫理的に評価するためにDeontic Higher-Order Logicを使用することによって、AIは人工的な道徳的エージェントとして振る舞うことができることを示唆している。
人間の監督や倫理的意味を超えたスピードとスケールによって動機づけられたこの論文は、「デザインによるAI倫理」を論じる一方で、分散的、共有的、ダイナミックな責任の性質を認めている。
この機能主義的アプローチは、急速に進化する技術分野において、AI倫理の複雑さをナビゲートするための実践的なフレームワークを提供する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Towards an Ethical and Inclusive Implementation of Artificial Intelligence in Organizations: A Multidimensional Framework [0.0]
本稿では,現代社会における人工知能の影響と,組織内における倫理的アプローチの採用の重要性を考察する。
政府、学術、市民社会などの様々な俳優は、人間と社会の価値観に沿ったAIの発展を形作る役割を担っている。
論文 参考訳(メタデータ) (2024-05-02T19:43:51Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - An Ecosystem Approach to Ethical AI and Data Use: Experimental
Reflections [0.0]
本稿では、倫理的課題に直面し解決することに関して、AI実践者のニーズを特定する方法論を提供する。
ダイアログと相互責任に基づく運用倫理に対する草の根的アプローチを提供する。
論文 参考訳(メタデータ) (2020-12-27T07:41:26Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。