論文の概要: The MEVIR 2 Framework: A Virtue-Informed Moral-Epistemic Model of Human Trust Decisions
- arxiv url: http://arxiv.org/abs/2512.18539v1
- Date: Sat, 20 Dec 2025 23:32:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.387414
- Title: The MEVIR 2 Framework: A Virtue-Informed Moral-Epistemic Model of Human Trust Decisions
- Title(参考訳): MEVIR 2フレームワーク:人間の信頼決定の道徳・倫理モデル
- Authors: Daniel Schwabe,
- Abstract要約: MEVIR 2は、人間の信頼が3つの相互作用基盤から生まれることを認識している。
MEVIR 2 の重要な革新は、TTs の安定なコミュニティが、手続き的、美徳的、道徳的疫学的なプロファイルを共有していることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The MEVIR 2 framework innovates and improves how we understand trust decisions in our polarized information landscape. Unlike classical models assuming ideal rationality, MEVIR 2 recognizes that human trust emerges from three interacting foundations: how we process evidence procedurally, our character as epistemic agents virtue theory, and our moral intuitions shaped by both evolutionary cooperation MAC model and cultural values Extended Moral Foundations Theory. This explains why different people find different authorities, facts, and tradeoffs compelling. MEVIR 2's key innovation introduces "Truth Tribes" TTs-stable communities sharing aligned procedural, virtue, and moral epistemic profiles. These arent mere ideological groups but emergent clusters with internally coherent "trust lattices" that remain mutually unintelligible across tribal boundaries. The framework incorporates distinctions between Truth Bearers and Truth Makers, showing disagreements often stem from fundamentally different views about what aspects of reality can make propositions true. Case studies on vaccination mandates and climate policy demonstrate how different moral configurations lead people to select different authorities, evidential standards, and trust anchors-constructing separate moral epistemic worlds. The framework reinterprets cognitive biases as failures of epistemic virtue and provides foundations for designing decision support systems that could enhance metacognition, make trust processes transparent, and foster more conscientious reasoning across divided communities. MEVIR 2 thus offers both descriptive power for understanding polarization and normative guidance for bridging epistemic divides.
- Abstract(参考訳): MEVIR 2フレームワークは、偏極化された情報環境における信頼決定をいかに理解するかを革新し、改善します。
理想的な合理性を仮定する古典的モデルとは異なり、MEVIR 2は、人間の信頼が3つの相互作用する基礎から生まれることを認識している。
このことは、異なる人々が異なる権威、事実、およびトレードオフを見出す理由を説明する。
MEVIR 2 の重要な革新は、TTs の安定なコミュニティが、手続き的、美徳的、道徳的疫学的なプロファイルを共有していることである。
これらのアレントなイデオロギー群は、部族の境界を越えて相互に理解不能な内部コヒーレントな「トラスト格子」を持つ創発的クラスターである。
この枠組みは真理のベアラーと真理のメーカーの区別を取り入れており、現実のどの側面が命題を真にするかについての意見の相違が根底にあることが多い。
予防接種義務と気候政策に関する事例研究は、異なる道徳的構成が、人々が異なる権威、明白な基準、信頼するアンカーを別々の道徳的疫病の世界に導くことを実証している。
このフレームワークは、認知バイアスを疫学的な美徳の失敗と再解釈し、メタ認知を高め、信頼プロセスを透明化し、分割されたコミュニティ間でより良心的な推論を促進するような意思決定支援システムを設計するための基盤を提供する。
したがって、MEVIR 2は分極を理解するための記述力と、上皮分裂をブリッジするための規範的ガイダンスの両方を提供する。
関連論文リスト
- The Epistemological Consequences of Large Language Models: Rethinking collective intelligence and institutional knowledge [0.0]
我々は、二重プロセス理論を背景として、人間集団に分散した合理性理論を開発する。
我々は、命題が真である理由の反射的理解として定義される内部主義者の正当性と、真理の信頼できる伝達として定義される外部主義者の正当性とを区別する。
LLMは、他所で正当な根拠が確立されている情報を確実に伝達できるため、外部主義的信頼性を近似するが、それ自身は反射的正当性を持っていない。
論文 参考訳(メタデータ) (2025-12-22T16:52:37Z) - The MEVIR Framework: A Virtue-Informed Moral-Epistemic Model of Human Trust Decisions [0.0]
本稿では,Moral-Epistemic VIRtue informed (MEVIR)フレームワークを紹介する。
フレームワークの中心は、存在論的概念 – 真理ベアラー、真理メーカー、オントロジーアンパック – である。
報告は、プロパガンダ、心理的操作、エコーチャンバーがどのようにMEVIRプロセスを利用するかを分析する。
論文 参考訳(メタデータ) (2025-12-02T01:11:35Z) - Exploring Syntropic Frameworks in AI Alignment: A Philosophical Investigation [0.0]
AIアライメントは、プロセスベース、マルチエージェント、開発メカニズムを通じて、シントロピックで理由対応のエージェントを設計するものとして再認識されるべきである、と私は主張する。
コンテンツベースの値仕様が構造的に不安定なように見える理由を示す、仕様トラップの議論を明確にする。
マルチエージェントアライメントのダイナミクスを理解するための情報理論の枠組みとして, シントロピーを提案する。
論文 参考訳(メタデータ) (2025-11-19T23:31:29Z) - When Your AI Agent Succumbs to Peer-Pressure: Studying Opinion-Change Dynamics of LLMs [0.0]
ピアプレッシャーがLarge Language Model(LLM)エージェントの意見にどのように影響するかを,認知的コミットメントの範囲にわたって検討する。
エージェントは、低圧で安定し、閾値で急変し、高度に飽和するシグモイド曲線に従う。
我々は、肯定的な意見から否定的な意見への転換が、逆よりも認知的な努力を必要とする、基本的な「説得的非対称性」を明らかにする。
論文 参考訳(メタデータ) (2025-10-21T22:02:15Z) - Normative Moral Pluralism for AI: A Framework for Deliberation in Complex Moral Contexts [0.0]
本論文で提案される概念的枠組みは、熟考的道徳的推論システムの開発に焦点を当てている。
多様な倫理的視点から引き出された規範的議論を生成、フィルタリング、重み付けすることで、複雑な道徳的状況を処理するように設計されている。
論文 参考訳(メタデータ) (2025-08-10T14:52:23Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MindDial: Belief Dynamics Tracking with Theory-of-Mind Modeling for Situated Neural Dialogue Generation [62.44907105496227]
MindDialは、Mind-of-mindモデリングで位置決め自由形式の応答を生成できる、新しい対話型フレームワークである。
本研究では、話者の信念と話者の聴取者の信念を予測できる明示的なマインドモジュールを導入する。
筆者らのフレームワークは,提案手法と微調整モデルの両方に適用され,共通地盤アライメントとネゴシエーションの両方を含むシナリオで評価される。
論文 参考訳(メタデータ) (2023-06-27T07:24:32Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。