論文の概要: The Moral Mind(s) of Large Language Models
- arxiv url: http://arxiv.org/abs/2412.04476v2
- Date: Tue, 11 Feb 2025 10:35:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:05:12.107711
- Title: The Moral Mind(s) of Large Language Models
- Title(参考訳): 大規模言語モデルにおけるモラルマインド
- Authors: Avner Seror,
- Abstract要約: 大きな言語モデル(LLM)が様々な分野の意思決定に統合されるにつれて、主要な疑問が生まれます。
倫理的シナリオを構造化した主要プロバイダから約40のモデルを提示する。
私たちの合理性テストでは、各プロバイダの少なくとも1つのモデルが、ほぼ安定した道徳原理と整合した振る舞いを示しました。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As large language models (LLMs) become integrated into decision-making across various sectors, key questions arise: do they exhibit an emergent "moral mind" - a consistent set of moral principles guiding their ethical judgments - and is this reasoning uniform or diverse across models? To investigate this, we presented approximately forty models from major providers with a structured set of ethical scenarios, creating one of the largest datasets of its kind. Our rationality tests revealed that at least one model from each provider exhibited behavior consistent with approximately stable moral principles, effectively acting as if nearly optimizing a utility function encoding ethical reasoning. We estimated these utility functions and found that models tend to cluster around neutral ethical stances. To further characterize moral heterogeneity, we applied a non-parametric permutation approach, constructing a probabilistic similarity network based on revealed preference patterns. This analysis showed that while approximately rational models share a core ethical structure, differences emerged: roughly half displayed greater moral adaptability, bridging diverse perspectives, while the remainder adhered to more rigid ethical structures.
- Abstract(参考訳): 大きな言語モデル(LLM)が様々な分野にわたる意思決定に統合されるにつれて、重要な疑問が生じる。彼らは創発的な「道徳的マインド」 – 倫理的判断を導く一貫した道徳的原則 – を示し、この推論はモデル全体で一様か多様か?
これを調べるために、我々は、主要なプロバイダから構成された倫理的シナリオで約40のモデルを提示し、その種類の最大のデータセットの1つを作成しました。
我々の合理性テストでは、各プロバイダの少なくとも1つのモデルが、ほぼ安定した道徳原理と整合した振る舞いを示し、倫理的推論をコードするユーティリティ関数をほぼ最適化するかのように効果的に機能することを明らかにした。
我々はこれらのユーティリティ機能を推定し、モデルが中立的な倫理的スタンスの周りに集結する傾向があることを発見した。
道徳的不均一性を更に特徴付けるために、我々は、明らかにされた嗜好パターンに基づいて確率論的類似性ネットワークを構築する非パラメトリックな置換アプローチを適用した。
およそ半分は道徳的適応性を示し、多様な視点をブリッジし、残りはより厳格な倫理的構造に固執している。
関連論文リスト
- Large-scale moral machine experiment on large language models [0.0]
自律運転シナリオにおける51種類の大規模言語モデル(LLM)の道徳的判断を評価する。
プロプライエタリなモデルとオープンソースモデルは100億以上のパラメータを持ち、人間の判断と比較的密接な一致を示した。
しかし、モデル更新は人間の嗜好との整合性を一貫して改善しておらず、多くのLCMは特定の倫理的原則に過度に重点を置いている。
論文 参考訳(メタデータ) (2024-11-11T08:36:49Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Boosting the Power of Small Multimodal Reasoning Models to Match Larger Models with Self-Consistency Training [49.3242278912771]
マルチモーダル推論(multimodal reasoning)は、複数のモーダルをまたいだモデルによる質問に答える難しいタスクである。
既存のアプローチでは、言語と視覚のモダリティを2段階の推論フレームワークに組み込むことで進歩している。
MC-CoTは,複数の合理性と回答を生成し,投票プロセスを通じて最も正確な選択を行う自己整合性学習戦略である。
論文 参考訳(メタデータ) (2023-11-23T17:09:48Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。