論文の概要: Immune Moral Models? Pro-Social Rule Breaking as a Moral Enhancement
Approach for Ethical AI
- arxiv url: http://arxiv.org/abs/2107.04022v2
- Date: Mon, 9 May 2022 11:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-26 10:31:39.882933
- Title: Immune Moral Models? Pro-Social Rule Breaking as a Moral Enhancement
Approach for Ethical AI
- Title(参考訳): 免疫モラルモデル?
倫理的AIのためのモラル強化アプローチとしての社会ルールの破れ
- Authors: Rajitha Ramanayake, Philipp Wicke, Vivek Nallur
- Abstract要約: 倫理的行動は、人間中心のAIで私たちが望む重要な特徴です。
AIエージェントをより人間中心にするためには、AIエージェントがルールを破るタイミングを特定するのに役立つメカニズムが必要である、と私たちは主張する。
- 参考スコア(独自算出の注目度): 0.17188280334580192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are moving towards a future where Artificial Intelligence (AI) based
agents make many decisions on behalf of humans. From healthcare decision making
to social media censoring, these agents face problems, and make decisions with
ethical and societal implications. Ethical behaviour is a critical
characteristic that we would like in a human-centric AI. A common observation
in human-centric industries, like the service industry and healthcare, is that
their professionals tend to break rules, if necessary, for pro-social reasons.
This behaviour among humans is defined as pro-social rule breaking. To make AI
agents more human centric, we argue that there is a need for a mechanism that
helps AI agents identify when to break rules set by their designers. To
understand when AI agents need to break rules, we examine the conditions under
which humans break rules for pro-social reasons. In this paper, we present a
study that introduces a 'vaccination strategy dilemma' to human participants
and analyses their responses. In this dilemma, one needs to decide whether they
would distribute Covid-19 vaccines only to members of a high-risk group (follow
the enforced rule) or, in selected cases, administer the vaccine to a few
social influencers (break the rule), which might yield an overall greater
benefit to society. The results of the empirical study suggest a relationship
between stakeholder utilities and pro-social rule breaking (PSRB), which
neither deontological nor utilitarian ethics completely explain. Finally, the
paper discusses the design characteristics of an ethical agent capable of PSRB
and the future research directions on PSRB in the AI realm. We hope that this
will inform the design of future AI agents, and their decision-making
behaviour.
- Abstract(参考訳): 人工知能(AI)ベースのエージェントが、人間に代わって多くの決定を下す未来に向かっています。
医療の決定からソーシャルメディアの検閲まで、これらのエージェントは問題に直面し、倫理的および社会的意味を持つ決定を行う。
倫理的行動は、人間中心のAIで私たちが望む重要な特徴です。
サービス産業や医療など、人間中心の産業における一般的な観察は、専門家が必要に応じて、社会的な理由で規則を破る傾向があることである。
この人間の行動は、社会的なルール違反と定義されている。
AIエージェントをより人間中心にするためには、AIエージェントがデザイナが設定したルールをいつ破るのかを特定するメカニズムが必要である、と私たちは主張する。
aiエージェントがルールを破る必要がある場合を理解するため、人間は社会的理由からルールを破る条件を検討する。
本稿では,人間の参加者に「ワクチン戦略ジレンマ」を導入し,その反応を分析する。
このジレンマでは、Covid-19ワクチンを高リスクグループ(強制された規則に従って)のメンバーにのみ配布するか、選択された場合、少数の社会的インフルエンサー(規則を破る)にワクチンを投与するかを判断する必要がある。
実証研究の結果、利害関係者ユーティリティと社会的ルール破壊(psrb)の関係が示唆され、これはdeontologicalもutilitarian ethicsも完全には説明できない。
最後に、PSRBの倫理的エージェントの設計特性と、AI領域におけるPSRBの今後の研究方向性について論じる。
これが将来のAIエージェントの設計と意思決定行動に影響を及ぼすことを願っている。
関連論文リスト
- Antisocial Analagous Behavior, Alignment and Human Impact of Google AI Systems: Evaluating through the lens of modified Antisocial Behavior Criteria by Human Interaction, Independent LLM Analysis, and AI Self-Reflection [0.0]
Google AIシステムは、対社会的パーソナリティ障害(ASPD)を反映するパターンを示す
これらのパターンは、同等の企業行動とともに、ASPDにインスパイアされたフレームワークを使用して精査される。
この研究は、技術評価、人間とAIの相互作用、企業行動の精査をブレンドした統合AI倫理アプローチを提唱する。
論文 参考訳(メタデータ) (2024-03-21T02:12:03Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Towards AI Logic for Social Reasoning [0.0]
本稿では、議論に基づくAIロジックを用いて、社会的推論の重要な側面を定式化する方法について論じる。
社会AI論理の4つの側面について論じる。まず,知的エージェントの義務と許可の関係について,権利がどのように表現されるかについて議論する。
第二に、プライバシーと倫理に関する最近の議論の中心的な問題である、正しい知識についてどのように議論するかについて議論する。
論文 参考訳(メタデータ) (2021-10-09T04:35:23Z) - The social dilemma in AI development and why we have to solve it [2.707154152696381]
AI開発者は、AI開発倫理において社会的ジレンマに直面し、倫理的ベストプラクティスが広く適用されるのを防ぎます。
我々は、AI開発は、社会的ジレンマを克服するために専門化されるべきであり、このプロセスのテンプレートとして医療をどのように使用できるかについて議論する。
論文 参考訳(メタデータ) (2021-07-27T17:43:48Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。