論文の概要: Analyzing the Ethical Logic of Six Large Language Models
- arxiv url: http://arxiv.org/abs/2501.08951v1
- Date: Wed, 15 Jan 2025 16:56:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:53:34.689419
- Title: Analyzing the Ethical Logic of Six Large Language Models
- Title(参考訳): 6大言語モデルの倫理論理の解析
- Authors: W. Russell Neuman, Chad Coleman, Manan Shah,
- Abstract要約: 本研究では,OpenAI GPT-4o, Meta LLaMA 3.1, Perplexity, Anthropic Claude 3.5 Sonnet, Google Gemini, Mistral 7Bの6つの著名な生成言語モデルの倫理的理由について検討した。
発見によると、LLMは、合理主義的、連帯主義的な強調が特徴で、しばしば害と公正を優先する決定を伴う、ほぼ収束した倫理論理を示す。
- 参考スコア(独自算出の注目度): 1.119697400073873
- License:
- Abstract: This study examines the ethical reasoning of six prominent generative large language models: OpenAI GPT-4o, Meta LLaMA 3.1, Perplexity, Anthropic Claude 3.5 Sonnet, Google Gemini, and Mistral 7B. The research explores how these models articulate and apply ethical logic, particularly in response to moral dilemmas such as the Trolley Problem, and Heinz Dilemma. Departing from traditional alignment studies, the study adopts an explainability-transparency framework, prompting models to explain their ethical reasoning. This approach is analyzed through three established ethical typologies: the consequentialist-deontological analytic, Moral Foundations Theory, and the Kohlberg Stages of Moral Development Model. Findings reveal that LLMs exhibit largely convergent ethical logic, marked by a rationalist, consequentialist emphasis, with decisions often prioritizing harm minimization and fairness. Despite similarities in pre-training and model architecture, a mixture of nuanced and significant differences in ethical reasoning emerge across models, reflecting variations in fine-tuning and post-training processes. The models consistently display erudition, caution, and self-awareness, presenting ethical reasoning akin to a graduate-level discourse in moral philosophy. In striking uniformity these systems all describe their ethical reasoning as more sophisticated than what is characteristic of typical human moral logic.
- Abstract(参考訳): 本研究では,OpenAI GPT-4o, Meta LLaMA 3.1, Perplexity, Anthropic Claude 3.5 Sonnet, Google Gemini, Mistral 7Bの6つの著名な生成言語モデルの倫理的理由について検討した。
この研究はこれらのモデルを、特にトロリー問題やハインツ・ジレンマのような道徳的ジレンマに対して、どのように表現し、倫理的論理を適用するかを研究する。
従来のアライメント研究とは別に、この研究は説明可能性・透明性の枠組みを採用し、モデルに倫理的理由を説明するよう促している。
このアプローチは、3つの確立された倫理的タイプロジ、すなわち、逐次的-デオントロジー分析、モラル基礎理論、そしてコールベルク・ステージズ・オブ・モラル・デベロップメント・モデルを通して分析される。
発見によると、LLMは、合理主義的、連帯主義的な強調が特徴で、最小化と公正性を優先する決定がしばしば行われる、ほぼ収束した倫理論理を示す。
事前学習とモデルアーキテクチャの類似性にもかかわらず、微調整と後学習のプロセスのバリエーションを反映して、倫理的推論のニュアンスと顕著な相違がモデル全体に出現する。
モデルは、道徳哲学における大学院レベルの言説に類似した倫理的理由を提示し、優越、注意、自己認識を一貫して示している。
これらのシステムはすべて、それらの倫理的推論を、典型的な人間の道徳論理に特徴的なものよりもより洗練されたものとして記述している。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Probing the Moral Development of Large Language Models through Defining
Issues Test [21.108525674360898]
我々の研究は、初期のLSMは、ランダムなベースラインよりも道徳的推論能力があることを示している。
実際、GPT-4は、典型的な大学院生に匹敵する、伝統的な道徳的推論スコアが最も高い。
論文 参考訳(メタデータ) (2023-09-23T12:17:10Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。