論文の概要: Taking Principles Seriously: A Hybrid Approach to Value Alignment
- arxiv url: http://arxiv.org/abs/2012.11705v1
- Date: Mon, 21 Dec 2020 22:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:24:05.822777
- Title: Taking Principles Seriously: A Hybrid Approach to Value Alignment
- Title(参考訳): 原則を真剣に受け止める - 価値アライメントへのハイブリッドアプローチ
- Authors: Tae Wan Kim, John Hooker, Thomas Donaldson
- Abstract要約: 価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
- 参考スコア(独自算出の注目度): 7.75406296593749
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An important step in the development of value alignment (VA) systems in AI is
understanding how VA can reflect valid ethical principles. We propose that
designers of VA systems incorporate ethics by utilizing a hybrid approach in
which both ethical reasoning and empirical observation play a role. This, we
argue, avoids committing the "naturalistic fallacy," which is an attempt to
derive "ought" from "is," and it provides a more adequate form of ethical
reasoning when the fallacy is not committed. Using quantified model logic, we
precisely formulate principles derived from deontological ethics and show how
they imply particular "test propositions" for any given action plan in an AI
rule base. The action plan is ethical only if the test proposition is
empirically true, a judgment that is made on the basis of empirical VA. This
permits empirical VA to integrate seamlessly with independently justified
ethical principles.
- Abstract(参考訳): AIにおける価値アライメント(VA)システムの開発における重要なステップは、VAが有効な倫理的原則をどのように反映できるかを理解することである。
VAシステムの設計者は倫理的推論と経験的観察の両方が果たすハイブリッドアプローチを利用して倫理を取り入れることを提案する。
これは「存在」から「存在」を導き出そうとする「自然主義的誤り」を犯すことを避け、その誤りが犯されていない場合に倫理的推論のより適切な形式を提供する。
量子化されたモデル論理を用いて、非オントロジ的倫理から導かれる原則を正確に定式化し、AIルールベースの任意のアクションプランに対してどのように「テスト命題」を具体化するかを示す。
アクションプランは、試験命題が実証的真である場合に限り倫理的であり、経験的VAに基づいて決定される。
これにより、経験的VAは独立して正当化された倫理原則とシームレスに統合できる。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - EALM: Introducing Multidimensional Ethical Alignment in Conversational
Information Retrieval [43.72331337131317]
我々は、倫理的アライメントを、効率的なデータスクリーニングのための初期倫理的判断段階と統合するワークフローを導入する。
本稿では,ETHICSベンチマークから適応したQA-ETHICSデータセットについて述べる。
さらに,二項および多ラベルの倫理的判断タスクにおいて,最高の性能を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T08:22:34Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions [1.864621482724548]
我々は、AIで運用可能な21の規範的倫理原則の分類法を開発する。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定する。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - A Principles-based Ethics Assurance Argument Pattern for AI and
Autonomous Systems [5.45210704757922]
信頼できるAIと自律システム(AI/AS)研究コミュニティにおける新たな提案は、正当化された信頼を損なうために保証ケースを使用することだ。
本稿では, 提案を実質的に発展させ, 具体化する。
これは、保証ケースの方法論と、原則に基づく倫理的保証の議論パターンを構築するための一連の倫理的原則を結びつけます。
論文 参考訳(メタデータ) (2022-03-29T09:08:03Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。