論文の概要: Taking Principles Seriously: A Hybrid Approach to Value Alignment
- arxiv url: http://arxiv.org/abs/2012.11705v1
- Date: Mon, 21 Dec 2020 22:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:24:05.822777
- Title: Taking Principles Seriously: A Hybrid Approach to Value Alignment
- Title(参考訳): 原則を真剣に受け止める - 価値アライメントへのハイブリッドアプローチ
- Authors: Tae Wan Kim, John Hooker, Thomas Donaldson
- Abstract要約: 価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
- 参考スコア(独自算出の注目度): 7.75406296593749
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An important step in the development of value alignment (VA) systems in AI is
understanding how VA can reflect valid ethical principles. We propose that
designers of VA systems incorporate ethics by utilizing a hybrid approach in
which both ethical reasoning and empirical observation play a role. This, we
argue, avoids committing the "naturalistic fallacy," which is an attempt to
derive "ought" from "is," and it provides a more adequate form of ethical
reasoning when the fallacy is not committed. Using quantified model logic, we
precisely formulate principles derived from deontological ethics and show how
they imply particular "test propositions" for any given action plan in an AI
rule base. The action plan is ethical only if the test proposition is
empirically true, a judgment that is made on the basis of empirical VA. This
permits empirical VA to integrate seamlessly with independently justified
ethical principles.
- Abstract(参考訳): AIにおける価値アライメント(VA)システムの開発における重要なステップは、VAが有効な倫理的原則をどのように反映できるかを理解することである。
VAシステムの設計者は倫理的推論と経験的観察の両方が果たすハイブリッドアプローチを利用して倫理を取り入れることを提案する。
これは「存在」から「存在」を導き出そうとする「自然主義的誤り」を犯すことを避け、その誤りが犯されていない場合に倫理的推論のより適切な形式を提供する。
量子化されたモデル論理を用いて、非オントロジ的倫理から導かれる原則を正確に定式化し、AIルールベースの任意のアクションプランに対してどのように「テスト命題」を具体化するかを示す。
アクションプランは、試験命題が実証的真である場合に限り倫理的であり、経験的VAに基づいて決定される。
これにより、経験的VAは独立して正当化された倫理原則とシームレスに統合できる。
関連論文リスト
- Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Reinforcement Learning Guided by Provable Normative Compliance [0.0]
強化学習(Reinforcement Learning, RL)は、自律エージェントの安全、倫理、法的行動のためのツールとして約束されている。
我々は多目的RL(MORL)を用いて、侵害を避けるという倫理的目的と非倫理的目的とのバランスをとる。
提案手法は,MORL手法の多重性に有効であることを示すとともに,割り当てる刑罰の規模に関係なく有効であることを示す。
論文 参考訳(メタデータ) (2022-03-30T13:10:55Z) - A Principle-based Ethical Assurance Argument for AI and Autonomous
Systems [6.12762193927784]
保証事例手法と目標構造化表記法(GSN)について検討する。
AI/ASの設計と展開を導くための4つの中核的な倫理原則について説明する。
私たちはこれを原則に基づく倫理保証のパターンと呼んでいる。
論文 参考訳(メタデータ) (2022-03-29T09:08:03Z) - Why we need biased AI -- How including cognitive and ethical machine
biases can enhance AI systems [0.0]
学習アルゴリズムにおける人間の認知バイアスの構造的実装について論じる。
倫理的マシン動作を達成するには、フィルタ機構を適用する必要がある。
本論文は、機械バイアスの倫理的重要性を再評価するアイデアを明示的に追求する最初の仮段階である。
論文 参考訳(メタデータ) (2022-03-18T12:39:35Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Ethics-Based Auditing to Develop Trustworthy AI [0.0]
倫理に基づく監査は、意思決定の質の向上、ユーザの満足度の向上、成長可能性の解放、法律作成の有効化、人間の苦悩の緩和を可能にすると論じる。
倫理に基づく監査は、継続的かつ建設的なプロセスの形をとり、システムの観点から倫理的なアライメントにアプローチし、倫理的に望ましい行動のための公共政策とインセンティブに整合する必要があります。
論文 参考訳(メタデータ) (2021-04-30T11:39:40Z) - Towards An Ethics-Audit Bot [0.6445605125467572]
本稿では,特定の社会技術的条件を考慮し,対象システムの倫理的監査を行うシステムを提案する。
より具体的には、ソフトウェア開発ライフサイクルに一定の倫理的基準を満たしたプロセスが含まれていることを保証するために、組織を支援できるボットの作成を提案する。
論文 参考訳(メタデータ) (2021-03-29T16:33:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。