論文の概要: The MEVIR 2 Framework: A Virtue-Informed Moral-Epistemic Model of Human Trust Decisions
- arxiv url: http://arxiv.org/abs/2512.18539v1
- Date: Sat, 20 Dec 2025 23:32:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.387414
- Title: The MEVIR 2 Framework: A Virtue-Informed Moral-Epistemic Model of Human Trust Decisions
- Title(参考訳): MEVIR 2フレームワーク:人間の信頼決定の道徳・倫理モデル
- Authors: Daniel Schwabe,
- Abstract要約: MEVIR 2は、人間の信頼が3つの相互作用基盤から生まれることを認識している。
MEVIR 2 の重要な革新は、TTs の安定なコミュニティが、手続き的、美徳的、道徳的疫学的なプロファイルを共有していることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The MEVIR 2 framework innovates and improves how we understand trust decisions in our polarized information landscape. Unlike classical models assuming ideal rationality, MEVIR 2 recognizes that human trust emerges from three interacting foundations: how we process evidence procedurally, our character as epistemic agents virtue theory, and our moral intuitions shaped by both evolutionary cooperation MAC model and cultural values Extended Moral Foundations Theory. This explains why different people find different authorities, facts, and tradeoffs compelling. MEVIR 2's key innovation introduces "Truth Tribes" TTs-stable communities sharing aligned procedural, virtue, and moral epistemic profiles. These arent mere ideological groups but emergent clusters with internally coherent "trust lattices" that remain mutually unintelligible across tribal boundaries. The framework incorporates distinctions between Truth Bearers and Truth Makers, showing disagreements often stem from fundamentally different views about what aspects of reality can make propositions true. Case studies on vaccination mandates and climate policy demonstrate how different moral configurations lead people to select different authorities, evidential standards, and trust anchors-constructing separate moral epistemic worlds. The framework reinterprets cognitive biases as failures of epistemic virtue and provides foundations for designing decision support systems that could enhance metacognition, make trust processes transparent, and foster more conscientious reasoning across divided communities. MEVIR 2 thus offers both descriptive power for understanding polarization and normative guidance for bridging epistemic divides.
- Abstract(参考訳): MEVIR 2フレームワークは、偏極化された情報環境における信頼決定をいかに理解するかを革新し、改善します。
理想的な合理性を仮定する古典的モデルとは異なり、MEVIR 2は、人間の信頼が3つの相互作用する基礎から生まれることを認識している。
このことは、異なる人々が異なる権威、事実、およびトレードオフを見出す理由を説明する。
MEVIR 2 の重要な革新は、TTs の安定なコミュニティが、手続き的、美徳的、道徳的疫学的なプロファイルを共有していることである。
これらのアレントなイデオロギー群は、部族の境界を越えて相互に理解不能な内部コヒーレントな「トラスト格子」を持つ創発的クラスターである。
この枠組みは真理のベアラーと真理のメーカーの区別を取り入れており、現実のどの側面が命題を真にするかについての意見の相違が根底にあることが多い。
予防接種義務と気候政策に関する事例研究は、異なる道徳的構成が、人々が異なる権威、明白な基準、信頼するアンカーを別々の道徳的疫病の世界に導くことを実証している。
このフレームワークは、認知バイアスを疫学的な美徳の失敗と再解釈し、メタ認知を高め、信頼プロセスを透明化し、分割されたコミュニティ間でより良心的な推論を促進するような意思決定支援システムを設計するための基盤を提供する。
したがって、MEVIR 2は分極を理解するための記述力と、上皮分裂をブリッジするための規範的ガイダンスの両方を提供する。
関連論文リスト
- The Epistemological Consequences of Large Language Models: Rethinking collective intelligence and institutional knowledge [0.0]
我々は、二重プロセス理論を背景として、人間集団に分散した合理性理論を開発する。
我々は、命題が真である理由の反射的理解として定義される内部主義者の正当性と、真理の信頼できる伝達として定義される外部主義者の正当性とを区別する。
LLMは、他所で正当な根拠が確立されている情報を確実に伝達できるため、外部主義的信頼性を近似するが、それ自身は反射的正当性を持っていない。
論文 参考訳(メタデータ) (2025-12-22T16:52:37Z) - The MEVIR Framework: A Virtue-Informed Moral-Epistemic Model of Human Trust Decisions [0.0]
本稿では,Moral-Epistemic VIRtue informed (MEVIR)フレームワークを紹介する。
フレームワークの中心は、存在論的概念 – 真理ベアラー、真理メーカー、オントロジーアンパック – である。
報告は、プロパガンダ、心理的操作、エコーチャンバーがどのようにMEVIRプロセスを利用するかを分析する。
論文 参考訳(メタデータ) (2025-12-02T01:11:35Z) - Exploring Syntropic Frameworks in AI Alignment: A Philosophical Investigation [0.0]
AIアライメントは、プロセスベース、マルチエージェント、開発メカニズムを通じて、シントロピックで理由対応のエージェントを設計するものとして再認識されるべきである、と私は主張する。
コンテンツベースの値仕様が構造的に不安定なように見える理由を示す、仕様トラップの議論を明確にする。
マルチエージェントアライメントのダイナミクスを理解するための情報理論の枠組みとして, シントロピーを提案する。
論文 参考訳(メタデータ) (2025-11-19T23:31:29Z) - When Your AI Agent Succumbs to Peer-Pressure: Studying Opinion-Change Dynamics of LLMs [0.0]
ピアプレッシャーがLarge Language Model(LLM)エージェントの意見にどのように影響するかを,認知的コミットメントの範囲にわたって検討する。
エージェントは、低圧で安定し、閾値で急変し、高度に飽和するシグモイド曲線に従う。
我々は、肯定的な意見から否定的な意見への転換が、逆よりも認知的な努力を必要とする、基本的な「説得的非対称性」を明らかにする。
論文 参考訳(メタデータ) (2025-10-21T22:02:15Z) - Normative Moral Pluralism for AI: A Framework for Deliberation in Complex Moral Contexts [0.0]
本論文で提案される概念的枠組みは、熟考的道徳的推論システムの開発に焦点を当てている。
多様な倫理的視点から引き出された規範的議論を生成、フィルタリング、重み付けすることで、複雑な道徳的状況を処理するように設計されている。
論文 参考訳(メタデータ) (2025-08-10T14:52:23Z) - Are Language Models Consequentialist or Deontological Moral Reasoners? [75.6788742799773]
我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
論文 参考訳(メタデータ) (2025-05-27T17:51:18Z) - Societal and technological progress as sewing an ever-growing, ever-changing, patchy, and polychrome quilt [44.522343543870804]
我々は、道徳的多様性の持続性を見落としているようなシステムが、抵抗を引き起こし、信頼を失わせ、制度を不安定化するのではないかと心配している。
理想的な条件下では、合理的なエージェントは単一の倫理上の会話の限界に収束するという考えである。
我々は、この前提をオプション的かつ疑わしいものとみなし、紛争理論、文化進化、マルチエージェントシステム、制度経済学に基づく代替アプローチとして、適切性枠組みと呼ぶものを提案する。
論文 参考訳(メタデータ) (2025-05-08T12:55:07Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MindDial: Belief Dynamics Tracking with Theory-of-Mind Modeling for Situated Neural Dialogue Generation [62.44907105496227]
MindDialは、Mind-of-mindモデリングで位置決め自由形式の応答を生成できる、新しい対話型フレームワークである。
本研究では、話者の信念と話者の聴取者の信念を予測できる明示的なマインドモジュールを導入する。
筆者らのフレームワークは,提案手法と微調整モデルの両方に適用され,共通地盤アライメントとネゴシエーションの両方を含むシナリオで評価される。
論文 参考訳(メタデータ) (2023-06-27T07:24:32Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。