論文の概要: The Jiminy Advisor: Moral Agreements Among Stakeholders Based on Norms
and Argumentation
- arxiv url: http://arxiv.org/abs/1812.04741v4
- Date: Fri, 28 Apr 2023 10:17:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 18:20:34.201997
- Title: The Jiminy Advisor: Moral Agreements Among Stakeholders Based on Norms
and Argumentation
- Title(参考訳): ジミニー・アドバイザー:規範と議論に基づく利害関係者間の道徳的合意
- Authors: Beishui Liao, Pere Pardo, Marija Slavkovik, Leendert van der Torre
- Abstract要約: 我々はJiminyという倫理的勧告コンポーネントを提案する。
ジミニー (Jiminy) は、各利害関係者の倫理観を規範的システムを用いて表現する。
我々は,ジミニーが倫理的推論や協調的意思決定だけでなく,倫理的行動の説明にも利用できることを示す。
- 参考スコア(独自算出の注目度): 1.5484595752241122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An autonomous system is constructed by a manufacturer, operates in a society
subject to norms and laws, and interacts with end users. All of these actors
are stakeholders affected by the behavior of the autonomous system. We address
the challenge of how the ethical views of such stakeholders can be integrated
in the behavior of an autonomous system. We propose an ethical recommendation
component called Jiminy which uses techniques from normative systems and formal
argumentation to reach moral agreements among stakeholders. A Jiminy represents
the ethical views of each stakeholder by using normative systems, and has three
ways of resolving moral dilemmas that involve the opinions of the stakeholders.
First, the Jiminy considers how the arguments of the stakeholders relate to one
another, which may already resolve the dilemma. Secondly, the Jiminy combines
the normative systems of the stakeholders such that the combined expertise of
the stakeholders may resolve the dilemma. Thirdly, and only if these two other
methods have failed, the Jiminy uses context-sensitive rules to decide which of
the stakeholders take preference over the others. At the abstract level, these
three methods are characterized by adding arguments, adding attacks between
arguments, and revising attacks between arguments. We show how a Jiminy can be
used not only for ethical reasoning and collaborative decision-making, but also
to provide explanations about ethical behavior.
- Abstract(参考訳): 自律システムは製造業者によって構築され、規範や法律に従う社会で運用され、エンドユーザーと対話する。
これらのアクターはすべて、自律システムの振る舞いに影響された利害関係者です。
このような利害関係者の倫理観が自律システムの行動にどのように統合できるかという課題に対処する。
我々は,規範システムからの手法と形式的議論を用いて利害関係者間の道徳的合意に達するための,jiminyと呼ばれる倫理的推奨要素を提案する。
ジミニーは、規範的システムを用いて各利害関係者の倫理的見解を表し、利害関係者の意見を含む道徳的ジレンマを解決する3つの方法を持っている。
まず、ジミニーは利害関係者の議論が互いにどのように関係しているかを考え、既にジレンマを解決しているかもしれない。
第二に、ジミニーは利害関係者の規範的なシステムを組み合わせることで、利害関係者の総合的な専門知識がジレンマを解決できる。
第3に、他の2つのメソッドが失敗した場合に限り、Jiminyはコンテキスト依存のルールを使用して、利害関係者のどちらが他の方法よりも優先するかを決定する。
抽象レベルでは、これらの3つのメソッドは引数の追加、引数間の攻撃の追加、引数間の攻撃の修正によって特徴づけられる。
我々は,ジミニーが倫理的推論や協調的意思決定だけでなく,倫理的行動の説明にも利用できることを示す。
関連論文リスト
- Beyond Preferences in AI Alignment [15.878773061188516]
我々は、AIアライメントに対する優先主義的アプローチを特徴づけ、挑戦する。
人間の価値観の濃厚なセマンティックな内容が、嗜好がどのように捉えられていないかを示す。
我々は、AIシステムは、彼らの社会的役割に適した規範的基準に適合すべきであると主張する。
論文 参考訳(メタデータ) (2024-08-30T03:14:20Z) - The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - Specifying Agent Ethics (Blue Sky Ideas) [1.9336815376402723]
我々は、機械倫理システムが持つべき特性について考察する。
この問題は、解決に合意しない倫理的ジレンマの存在によって複雑である。
論文 参考訳(メタデータ) (2024-03-24T11:32:43Z) - Analysing and Organising Human Communications for AI Fairness-Related Decisions: Use Cases from the Public Sector [0.0]
多様な利害関係者間のコミュニケーション問題は、AIアルゴリズムの誤解釈と誤用につながる可能性がある。
我々は,公共部門におけるアルゴリズムシステムに取り組む実践者とのインタビューを行う。
公平性に関連する人間の決定を下すコミュニケーションプロセスの鍵となる要素を同定する。
論文 参考訳(メタデータ) (2024-03-20T14:20:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。