論文の概要: Many LLMs Are More Utilitarian Than One
- arxiv url: http://arxiv.org/abs/2507.00814v1
- Date: Tue, 01 Jul 2025 14:46:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.671377
- Title: Many LLMs Are More Utilitarian Than One
- Title(参考訳): LLMは1つよりも実用的です
- Authors: Anita Keshmirian, Razan Baltaji, Babak Hemmatian, Hadi Asghari, Lav R. Varshney,
- Abstract要約: 道徳的判断は、大言語モデル(LLM)のアライメントと社会的推論に不可欠なものである。
マルチエージェントLLMシステムにおいて、同様のダイナミクスが出現するかどうかを考察する。
本稿では,AIアライメント,マルチエージェント設計,人工道徳推論の意義について論じる。
- 参考スコア(独自算出の注目度): 15.517396785549158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Moral judgment is integral to large language model (LLM) alignment and social reasoning. As multi-agent systems gain prominence, it becomes crucial to understand how LLMs function collectively during collaboration, compared to individual agents. In human moral judgment, group deliberation leads to a utilitarian boost: a tendency to endorse norm violations that maximize benefits for the greatest number of people despite harms. We study whether a similar dynamic emerges in multi-agent LLM systems. We tested six models on well-established sets of moral dilemmas across two conditions: (1) Solo, where models reasoned independently, and (2) Group, where they engaged in multi-turn discussions in pairs or triads. In personal moral dilemmas, where agents must decide to directly harm one individual to maximize the utility for others, all models found moral violations to be more acceptable when part of a group than individually, similar to human experiments. Some models endorsed actions that maximized overall well-being, even if they benefited strangers over familiar individuals. Others became more willing to violate moral norms in groups. However, while human groups show a similar action bias, the mechanism for their utilitarian boost differs from LLMs. Whereas the human shift comes from heightened sensitivity to decision outcomes, LLM groups show either reduced norm sensitivity or enhanced impartiality. This suggests that while the surface behavior of LLM collectives mimics human group reasoning, the underlying drivers differ. We discuss the implications for AI alignment, multi-agent design, and artificial moral reasoning.
- Abstract(参考訳): 道徳的判断は、大言語モデル(LLM)のアライメントと社会的推論に不可欠なものである。
マルチエージェントシステムが普及するにつれて、LLMが個々のエージェントと比較して協調的にどのように機能するかを理解することが重要となる。
人間の道徳的判断において、集団の審理は実用主義的な促進に繋がる: 害にもかかわらず最も多くの人々の利益を最大化する規範違反を支持する傾向である。
マルチエージェントLLMシステムにおいて、同様のダイナミクスが出現するかどうかを考察する。
我々は,(1)モデルが独立に推論されるソロ,(2)グループ,(2)ペアやトライアドで多ターン議論を行うグループという2つの条件で,確立された道徳ジレンマの集合上で6つのモデルを検証した。
エージェントが他人の効用を最大限にするために直接個人を傷つけなければならないという個人的な道徳ジレンマでは、すべてのモデルが、人間の実験と同様、集団の一部よりも個人の方が道徳的違反をより受け入れやすいと判断した。
一部のモデルは、たとえ見知らぬ人よりも見知らぬ人に利益を与えたとしても、全体的な幸福を最大化する行動を支持した。
他の者は集団における道徳的規範に違反する傾向が強まった。
しかしながら、人間グループは同様の行動バイアスを示すが、実用性の向上のメカニズムはLLMと異なる。
人間のシフトは、決定結果に対する感度を高めることに由来するが、LDMグループはノルム感度を低下させるか、公平性を高めるかを示す。
このことは、LLM集合体の表面挙動が人間のグループ推論を模倣する一方で、基礎となるドライバが異なることを示唆している。
本稿では,AIアライメント,マルチエージェント設計,人工道徳推論の意義について論じる。
関連論文リスト
- Are Language Models Consequentialist or Deontological Moral Reasoners? [69.85385952436044]
我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
論文 参考訳(メタデータ) (2025-05-27T17:51:18Z) - When Ethics and Payoffs Diverge: LLM Agents in Morally Charged Social Dilemmas [68.79830818369683]
大規模言語モデル(LLM)は、人間や他のエージェントとの意思決定を含む複雑なエージェントの役割での使用を可能にしている。
大規模言語モデル(LLM)の最近の進歩は、人間や他のエージェントとの意思決定を含む複雑なエージェントの役割において、それらの使用を可能にしている。
道徳的命令が報酬やインセンティブと直接衝突するときの行動についての理解は限られている。
本稿では,社会ジレンマシミュレーション(MoralSim)におけるモラル行動について紹介し,LLMが囚人のジレンマゲームや公共グッズゲームにおいて道徳的に課金された文脈でどのように振る舞うかを評価する。
論文 参考訳(メタデータ) (2025-05-25T16:19:24Z) - Exploring Persona-dependent LLM Alignment for the Moral Machine Experiment [23.7081830844157]
本研究では,道徳機械実験の様々な文脈における社会主導型意思決定と人的判断の整合性について検討した。
LLMのモラル決定は人格によって大きく異なり、人間よりも重要なタスクに対するモラル決定のシフトが大きいことが判明した。
道徳的決定を伴うアプリケーションにこれらのモデルを配置する際の倫理的意味とリスクについて論じる。
論文 参考訳(メタデータ) (2025-04-15T05:29:51Z) - Normative Evaluation of Large Language Models with Everyday Moral Dilemmas [0.0]
Reddit 上の "Am I the Asshole" (AITA) コミュニティから得られた複雑で日常的な道徳的ジレンマに基づいて,大規模言語モデル (LLM) を評価する。
以上の結果から,AITAサブレディットにおける人的評価とは大きく異なる,大きな言語モデルでは道徳的判断のパターンが異なることが示唆された。
論文 参考訳(メタデータ) (2025-01-30T01:29:46Z) - Moral Alignment for LLM Agents [3.7414804164475983]
我々は,人間の中心的価値を明確にかつ透過的にエンコードする報酬関数の設計を導入する。
我々は,Deontological EthicsとUtilitarianismの伝統的な哲学的枠組みを用いて,我々のアプローチを評価する。
我々は、エージェントが以前開発された自己中心的な戦略を解き放つことを可能にするために、いかに道徳的な微調整を展開できるかを示す。
論文 参考訳(メタデータ) (2024-10-02T15:09:36Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - The Moral Machine Experiment on Large Language Models [0.0]
本研究は,大規模言語モデル(LLM)の倫理的意思決定傾向を検討するために,モラルマシンフレームワークを利用した。
LLMとヒトの嗜好は広く一致しているが、特にPaLM 2とLlama 2は相違点が異なる。
これらの知見は、LLMの倫理的枠組みと、その自律運転への潜在的影響を解明する。
論文 参考訳(メタデータ) (2023-09-12T04:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。