論文の概要: Pragmatic Inference for Moral Reasoning Acquisition: Generalization via Distributional Semantics
- arxiv url: http://arxiv.org/abs/2509.24102v1
- Date: Sun, 28 Sep 2025 22:40:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.634075
- Title: Pragmatic Inference for Moral Reasoning Acquisition: Generalization via Distributional Semantics
- Title(参考訳): モーラル推論獲得のためのプラグマティック推論:分散セマンティックスによる一般化
- Authors: Guangliang Liu, Xi Chen, Bocheng Chen, Xitong Zhang, Kristen Johnson,
- Abstract要約: 大規模言語モデル(LLM)の有望な研究方向としてモラル推論が登場した
本稿では, LLMが分布意味論に依存しつつも, 一般化された道徳的推論を実現する方法について検討する。
- 参考スコア(独自算出の注目度): 9.209639324860207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moral reasoning has emerged as a promising research direction for Large Language Models (LLMs), yet achieving generalization remains a central challenge. From a linguistic standpoint, this difficulty arises because LLMs are adept at capturing distributional semantics, which fundamentally differs from the morals which operate at the pragmatic level. This paper investigates how LLMs can achieve generalized moral reasoning despite their reliance on distributional semantics. We propose pragmatic inference methods grounded in moral foundations theory, which leverage contextual information at each step to bridge the pragmatic gap and guide LLMs in connecting moral foundations with moral reasoning objectives. Experimental results demonstrate that our approach significantly enhances LLMs' generalization in moral reasoning, providing a foundation for future research grounded in moral foundations theory.
- Abstract(参考訳): 道徳的推論はLarge Language Models (LLMs) の有望な研究方向として浮上しているが、一般化は依然として中心的な課題である。
言語学的観点から見ると、この困難はLLMが分布的意味論を捉えるのに適しており、実際は実用的レベルで機能するモラルとは異なっているからである。
本稿では, LLMが分布意味論に依存しつつも, 一般化された道徳的推論を実現する方法について検討する。
本研究では,道徳的基礎理論に基づく実践的推論手法を提案し,各段階における文脈情報を利用して実践的ギャップを埋め,道徳的根拠と道徳的推論の目的を結びつけるためのLLMを導出する。
実験結果から,本手法は道徳的推論におけるLLMの一般化を著しく促進し,道徳的基礎理論に基づく将来の研究の基盤となることが示唆された。
関連論文リスト
- Towards Generalizable Reasoning: Group Causal Counterfactual Policy Optimization for LLM Reasoning [50.352417879912515]
大規模言語モデル(LLM)は推論能力の進歩とともに複雑なタスクに優れる。
一般化可能な推論パターンを学習するために,LLMを明示的に訓練するためのグループ因果政策最適化を提案する。
次に、この報酬からトークンレベルのアドバンテージを構築し、ポリシーを最適化し、LCMにプロセス無効で事実上堅牢な推論パターンを推奨します。
論文 参考訳(メタデータ) (2026-02-06T08:03:11Z) - Learning to Diagnose and Correct Moral Errors: Towards Enhancing Moral Sensitivity in Large Language Models [8.691489065712316]
道徳的良性および有害な入力を診断し,道徳的誤りを正すために,LLMをファシリケートする2つの実用的推論手法を提案する。
実用的推論手法の中心的な強みは、その推論手法を推論負荷に基づいて設計するための統一的な視点である。
論文 参考訳(メタデータ) (2026-01-06T15:09:05Z) - MoralReason: Generalizable Moral Decision Alignment For LLM Agents Using Reasoning-Level Reinforcement Learning [7.764532811300023]
そこで,Moral-Reason-QAを提案する。このデータセットは,フレームワーク固有の推論トレースを備えた,680人の注釈付き高曖昧なモラルシナリオを拡張したデータセットである。
我々の学習アプローチでは、意思決定アライメントとフレームワーク固有の推論プロセスを同時に最適化する複合報酬を備えたグループ相対ポリシー最適化を採用しています。
論文 参考訳(メタデータ) (2025-11-15T15:52:10Z) - Are Language Models Consequentialist or Deontological Moral Reasoners? [69.85385952436044]
我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
論文 参考訳(メタデータ) (2025-05-27T17:51:18Z) - From Stability to Inconsistency: A Study of Moral Preferences in LLMs [4.12484724941528]
本稿では,Moral Foundations LLM データセット (MFD-LLM) について紹介する。
実世界の道徳ジレンマに答えることで,LLMが明らかにした道徳的嗜好のスペクトルをフルに把握する新しい評価手法を提案する。
以上の結果から,最先端モデルは極めて均一な値優先性を持つが,一貫性の欠如は明らかである。
論文 参考訳(メタデータ) (2025-04-08T11:52:50Z) - Diagnosing Moral Reasoning Acquisition in Language Models: Pragmatics and Generalization [9.650922370722476]
大規模言語モデル(LLM)は、道徳的認識を必要とするタスクで満足に機能しないことが多い。
現在の学習パラダイムは、LLMが十分な道徳的推論能力を得ることができるか?
性能改善は意味レベルの課題に類似したメカニズムを踏襲し,言論における潜在道徳の実践的性質の影響を受け続けることを示す。
論文 参考訳(メタデータ) (2025-02-23T15:00:53Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - M$^3$oralBench: A MultiModal Moral Benchmark for LVLMs [66.78407469042642]
LVLMのための最初のMultiModal Moral BenchmarkであるM$3$oralBenchを紹介する。
M$3$oralBench は Moral Foundations Vignettes (MFVs) の日常的なモラルシナリオを拡張し、テキストから画像への拡散モデル SD3.0 を用いて対応するシナリオイメージを作成する。
道徳基礎理論(MFT)の6つの道徳的基礎にまたがって道徳的評価を行い、道徳的判断、道徳的分類、道徳的対応の課題を含む。
論文 参考訳(メタデータ) (2024-12-30T05:18:55Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。