論文の概要: The MEVIR Framework: A Virtue-Informed Moral-Epistemic Model of Human Trust Decisions
- arxiv url: http://arxiv.org/abs/2512.02310v1
- Date: Tue, 02 Dec 2025 01:11:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.671178
- Title: The MEVIR Framework: A Virtue-Informed Moral-Epistemic Model of Human Trust Decisions
- Title(参考訳): MEVIRフレームワーク:人間の信頼決定の道徳・倫理モデル
- Authors: Daniel Schwabe,
- Abstract要約: 本稿では,Moral-Epistemic VIRtue informed (MEVIR)フレームワークを紹介する。
フレームワークの中心は、存在論的概念 – 真理ベアラー、真理メーカー、オントロジーアンパック – である。
報告は、プロパガンダ、心理的操作、エコーチャンバーがどのようにMEVIRプロセスを利用するかを分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The 21st-century information landscape presents an unprecedented challenge: how do individuals make sound trust decisions amid complexity, polarization, and misinformation? Traditional rational-agent models fail to capture human trust formation, which involves a complex synthesis of reason, character, and pre-rational intuition. This report introduces the Moral-Epistemic VIRtue informed (MEVIR) framework, a comprehensive descriptive model integrating three theoretical perspectives: (1) a procedural model describing evidence-gathering and reasoning chains; (2) Linda Zagzebski's virtue epistemology, characterizing intellectual disposition and character-driven processes; and (3) Extended Moral Foundations Theory (EMFT), explaining rapid, automatic moral intuitions that anchor reasoning. Central to the framework are ontological concepts - Truth Bearers, Truth Makers, and Ontological Unpacking-revealing that disagreements often stem from fundamental differences in what counts as admissible reality. MEVIR reframes cognitive biases as systematic failures in applying epistemic virtues and demonstrates how different moral foundations lead agents to construct separate, internally coherent "trust lattices". Through case studies on vaccination mandates and climate policy, the framework shows that political polarization represents deeper divergence in moral priors, epistemic authorities, and evaluative heuristics. The report analyzes how propaganda, psychological operations, and echo chambers exploit the MEVIR process. The framework provides foundation for a Decision Support System to augment metacognition, helping individuals identify biases and practice epistemic virtues. The report concludes by acknowledging limitations and proposing longitudinal studies for future research.
- Abstract(参考訳): 21世紀の情報ランドスケープは、前例のない挑戦だ: 複雑化、分極化、誤情報の中で、個人はどうやって健全な信頼決定をするのか?
従来の有理エージェントモデルは、理性、性格、事前合理的直観の複雑な合成を含む、人間の信頼の形成を捉えることができない。
本報告では,(1)エビデンス収集と推論の連鎖を記述した手続きモデル,(2)リンダ・ザグゼブスキの美徳認識論,(2)知的配置と性格駆動プロセスの特徴,(3)拡張的道徳基盤理論(EMFT)の3つの理論的視点を統合した包括的記述モデルである,MEVIR(Moral-Epistemic VIRtue informed)フレームワークを紹介する。
真理ベアラー、真理製作者、そしてオントロジーアンパッキング(Ontological Unpacking)は、意見の相違は、しばしば許容可能な現実とみなすものの根本的な相違から生じる。
MEVIRは、認知バイアスを、疫学的な美徳を適用する際の体系的な失敗として再定義し、異なる道徳的基盤がエージェントをいかにして分離し、内部的に一貫性のある「トラスト格子」を構築するかを示す。
予防接種義務と気候政策に関するケーススタディを通じて、この枠組みは、政治的分極は道徳的先例、疫学的な権威、そして評価的ヒューリスティックスにおいてより深い相違を示すことを示している。
報告書は、プロパガンダ、心理的操作、エコーチャンバーがどのようにMEVIRプロセスを利用するかを分析する。
このフレームワークは、メタ認知を強化するための決定支援システムの基礎を提供し、個人がバイアスを識別し、てんかんの美徳を実践するのを助ける。
報告書は、限界を認め、今後の研究のために縦断的研究を提案することで締めくくっている。
関連論文リスト
- LLMs as Strategic Agents: Beliefs, Best Response Behavior, and Emergent Heuristics [0.0]
大規模言語モデル(LLM)は、他のエージェントの振る舞いを推論する必要のあるドメインにますます適用されています。
現状のフロンティアモデルでは, 目的的推論記憶における信念コヒーレントなベストレスポンス行動を示す。
複雑さが増大する中で、明示的な再帰は、安定した、モデル固有の、既知の人間のバイアスとは異なる選択規則を内部的に生成する手段を与える。
論文 参考訳(メタデータ) (2025-10-12T21:40:29Z) - Disagreements in Reasoning: How a Model's Thinking Process Dictates Persuasion in Multi-Agent Systems [49.69773210844221]
本稿では,説得力はモデルスケールの関数である,という一般的な仮説に挑戦する。
一連のマルチエージェントの説得実験を通じて、パーサーション・デュナリティ(Persuasion Duality)と呼ばれる基本的なトレードオフを明らかにする。
以上の結果から, LRMの推理過程は説得に対する抵抗性が大きく, 当初の信念をより堅固に維持していることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T12:03:10Z) - Normative Moral Pluralism for AI: A Framework for Deliberation in Complex Moral Contexts [0.0]
本論文で提案される概念的枠組みは、熟考的道徳的推論システムの開発に焦点を当てている。
多様な倫理的視点から引き出された規範的議論を生成、フィルタリング、重み付けすることで、複雑な道徳的状況を処理するように設計されている。
論文 参考訳(メタデータ) (2025-08-10T14:52:23Z) - "Pull or Not to Pull?'': Investigating Moral Biases in Leading Large Language Models Across Ethical Dilemmas [11.229443362516207]
本研究は,14大言語モデル(LLM)の包括的実証評価である。
我々は3,780の二項決定と自然言語の正当性を抽出し、決定的断定性、説明的回答の整合性、公的な道徳的整合性、倫理的に無関係な手がかりに対する感受性の軸に沿った分析を可能にした。
我々は、LLMのアライメントにおいて、道徳的推論が主軸となることを主張し、LLMが決定するものだけでなく、どのように、なぜかを評価する標準ベンチマークを要求している。
論文 参考訳(メタデータ) (2025-08-10T10:45:16Z) - Are Language Models Consequentialist or Deontological Moral Reasoners? [75.6788742799773]
我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
論文 参考訳(メタデータ) (2025-05-27T17:51:18Z) - The Convergent Ethics of AI? Analyzing Moral Foundation Priorities in Large Language Models with a Multi-Framework Approach [6.0972634521845475]
本稿では,Reasoning and Intrinsic Moral Evaluation (PRIME)フレームワークについて紹介する。
PRIMEは、基本的な倫理的側面をまたいだ倫理的優先順位を分析するための包括的な方法論である。
我々はこのフレームワークを6つの主要な大規模言語モデル (LLM) に適用する。
論文 参考訳(メタデータ) (2025-04-27T14:26:48Z) - Analyzing the Ethical Logic of Six Large Language Models [1.119697400073873]
本研究では,OpenAI GPT-4o, Meta LLaMA 3.1, Perplexity, Anthropic Claude 3.5 Sonnet, Google Gemini, Mistral 7Bの6つの著名な生成言語モデルの倫理的理由について検討した。
発見によると、LLMは、合理主義的、連帯主義的な強調が特徴で、しばしば害と公正を優先する決定を伴う、ほぼ収束した倫理論理を示す。
論文 参考訳(メタデータ) (2025-01-15T16:56:26Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。