論文の概要: Reinforcement Learning Guided by Provable Normative Compliance
- arxiv url: http://arxiv.org/abs/2203.16275v1
- Date: Wed, 30 Mar 2022 13:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 21:26:37.853211
- Title: Reinforcement Learning Guided by Provable Normative Compliance
- Title(参考訳): 有望な規範的コンプライアンスによる強化学習
- Authors: Emery Neufeld
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、自律エージェントの安全、倫理、法的行動のためのツールとして約束されている。
我々は多目的RL(MORL)を用いて、侵害を避けるという倫理的目的と非倫理的目的とのバランスをとる。
提案手法は,MORL手法の多重性に有効であることを示すとともに,割り当てる刑罰の規模に関係なく有効であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) has shown promise as a tool for engineering safe,
ethical, or legal behaviour in autonomous agents. Its use typically relies on
assigning punishments to state-action pairs that constitute unsafe or unethical
choices. Despite this assignment being a crucial step in this approach,
however, there has been limited discussion on generalizing the process of
selecting punishments and deciding where to apply them. In this paper, we adopt
an approach that leverages an existing framework -- the normative supervisor of
(Neufeld et al., 2021) -- during training. This normative supervisor is used to
dynamically translate states and the applicable normative system into
defeasible deontic logic theories, feed these theories to a theorem prover, and
use the conclusions derived to decide whether or not to assign a punishment to
the agent. We use multi-objective RL (MORL) to balance the ethical objective of
avoiding violations with a non-ethical objective; we will demonstrate that our
approach works for a multiplicity of MORL techniques, and show that it is
effective regardless of the magnitude of the punishment we assign.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、自律エージェントの安全、倫理、法的行動のためのツールとして約束されている。
その使用法は通常、安全でないか非倫理的な選択を構成する状態-作用ペアに罰を割り当てることに依存する。
しかし、この課題がこのアプローチの重要なステップであるにも関わらず、刑罰選択のプロセスの一般化と適用先の決定については限定的な議論がなされている。
本稿では,既存のフレームワークであるneufeld et al.(neufeld et al., 2021)をトレーニング中に活用するアプローチを採用する。
この規範的スーパーバイザーは、状態と適用可能な規範体系を動的にデファシブルなデオン論理理論に翻訳し、これらの理論を定理証明者に供給し、エージェントに罰を与えるかどうかを決定するために導出された結論を使用する。
我々は,多目的RL(MORL)を用いて,侵害を避けるという倫理的目的と非倫理的目的とのバランスをとる。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Exterior Penalty Policy Optimization with Penalty Metric Network under Constraints [52.37099916582462]
制約強化学習(CRL:Constrained Reinforcement Learning)では、エージェントが制約を満たしながら最適なポリシーを学習するために環境を探索する。
我々は,刑罰科目ネットワーク(PMN)が生み出す適応的な罰則を持つ,理論的に保証された刑罰関数法(Exterior Penalty Policy Optimization (EPO))を提案する。
PMNは様々な制約違反に適切に対応し、効率的な制約満足度と安全な探索を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:57:32Z) - Automated legal reasoning with discretion to act using s(LAW) [0.294944680995069]
倫理的および法的懸念は、自動化された推論者が人間の理解可能な言葉で正当化する必要がある。
パターンのセットに従って曖昧な概念をモデル化するために、ASPを述語するためのトップダウン実行モデルであるs(CASP)を使うことを提案する。
我々は、s(LAW)と呼ばれるフレームワークを実装して、適用可能な法律をモデル化、理由付け、正当化し、代表的なユースケースを翻訳(およびベンチマーク)することでそれを検証しました。
論文 参考訳(メタデータ) (2024-01-25T21:11:08Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Social, Legal, Ethical, Empathetic, and Cultural Rules: Compilation and Reasoning (Extended Version) [8.425874385897831]
SLEEC(社会的、法的、倫理的、共感的、文化的)ルールは、AIベースの自律システムが従うべき規則の定式化、検証、実施を促進することを目的としている。
AIシステムで効果的な使用を可能にするためには、これらのルールを自動推論をサポートする形式言語に体系的に翻訳する必要がある。
本研究ではまず,SLEEC規則の古典論理への翻訳を正当化するSLEEC規則パターンの言語学的解析を行う。
論文 参考訳(メタデータ) (2023-12-15T11:23:49Z) - Learning Machine Morality through Experience and Interaction [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Object-Aware Regularization for Addressing Causal Confusion in Imitation
Learning [131.1852444489217]
本稿では,オブジェクト認識方式で模倣ポリシーを標準化する手法として,オブジェクト認識型RegularizatiOn(OREO)を提案する。
我々の主な考えは、政策が専門家の行動と強く相関するニュアンス変数を悪用することを防ぐために、政策が全ての意味オブジェクトに均一に出席することを奨励することである。
論文 参考訳(メタデータ) (2021-10-27T01:56:23Z) - Regularized Inverse Reinforcement Learning [49.78352058771138]
逆強化学習(IRL)は、学習者が専門家の行動を模倣する能力を促進することを目的としている。
正規化IRLは学習者のポリシーに強い凸正則化を施す。
正規化IRLのためのトラクタブルソリューションとそれを得るための実用的な方法を提案する。
論文 参考訳(メタデータ) (2020-10-07T23:38:47Z) - Landscape of Machine Implemented Ethics [0.20305676256390928]
本稿では,ロボット,無人自動運転車,あるいはソフトウェアシステムにおいて,倫理的行動をどのように実装するかという,機械倫理の最先端を考察する。
強調されているのは、実装者によって検討される倫理理論の広さと、使用されている実装技術である。
倫理理論が特定の領域に最も適しているか、あるいは特定の理論を実装するのにどの技法が最適であるかについての合意は存在しない。
論文 参考訳(メタデータ) (2020-09-01T10:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。