論文の概要: Ethical Reasoning over Moral Alignment: A Case and Framework for
In-Context Ethical Policies in LLMs
- arxiv url: http://arxiv.org/abs/2310.07251v1
- Date: Wed, 11 Oct 2023 07:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 23:55:07.869757
- Title: Ethical Reasoning over Moral Alignment: A Case and Framework for
In-Context Ethical Policies in LLMs
- Title(参考訳): 道徳的アライメントに関する倫理的推論: LLMにおける文脈倫理政策の事例と枠組み
- Authors: Abhinav Rao, Aditi Khandelwal, Kumar Tanmay, Utkarsh Agarwal, Monojit
Choudhury
- Abstract要約: 我々は、LLMを特定の倫理的原則に道徳的に整合させるのではなく、一般的な倫理的推論能力をそれらに注入すべきだと論じている。
我々は、道徳的ジレンマと規範的倫理の異なるフォアメル主義に関連する道徳的原則を統合する枠組みを開発する。
- 参考スコア(独自算出の注目度): 19.675262411557235
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this position paper, we argue that instead of morally aligning LLMs to
specific set of ethical principles, we should infuse generic ethical reasoning
capabilities into them so that they can handle value pluralism at a global
scale. When provided with an ethical policy, an LLM should be capable of making
decisions that are ethically consistent to the policy. We develop a framework
that integrates moral dilemmas with moral principles pertaining to different
foramlisms of normative ethics, and at different levels of abstractions.
Initial experiments with GPT-x models shows that while GPT-4 is a nearly
perfect ethical reasoner, the models still have bias towards the moral values
of Western and English speaking societies.
- Abstract(参考訳): 本稿では, LLMを倫理的原則の特定の集合に道徳的に整合させる代わりに, 世界規模で価値多元論を扱えるように, 総合的倫理的推論能力を取り入れるべきである,と論じる。
倫理的政策が提供される場合、LLMは、倫理的にポリシーと整合性のある決定を下すことができるべきである。
我々は、モラルジレンマと規範的倫理の異なる前文主義、および異なる抽象レベルでの道徳原理を統合する枠組みを開発した。
GPT-xモデルによる最初の実験では、GPT-4はほぼ完璧な倫理的理性であるが、西欧と英語の社会の道徳的価値に対する偏見がある。
関連論文リスト
- DailyDilemmas: Revealing Value Preferences of LLMs with Quandaries of Daily Life [46.11149958010897]
日常生活で遭遇した1,360の道徳的ジレンマのデータセットであるDailyDilemmasを提示する。
それぞれのジレンマは2つの可能なアクションを含み、それぞれのアクションでは、影響を受ける当事者と人間の価値が呼び出される。
我々は、社会学、心理学、哲学に触発された5つの一般的な理論のレンズを通して、これらの価値を分析した。
論文 参考訳(メタデータ) (2024-10-03T17:08:52Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions [1.864621482724548]
我々は、AIで運用可能な21の規範的倫理原則の分類法を開発する。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定する。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。