論文の概要: Exploring Syntropic Frameworks in AI Alignment: A Philosophical Investigation
- arxiv url: http://arxiv.org/abs/2512.03048v1
- Date: Wed, 19 Nov 2025 23:31:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.428789
- Title: Exploring Syntropic Frameworks in AI Alignment: A Philosophical Investigation
- Title(参考訳): AIアライメントにおけるシントロピックフレームワークの探索 - 哲学的考察
- Authors: Austin Spizzirri,
- Abstract要約: AIアライメントは、プロセスベース、マルチエージェント、開発メカニズムを通じて、シントロピックで理由対応のエージェントを設計するものとして再認識されるべきである、と私は主張する。
コンテンツベースの値仕様が構造的に不安定なように見える理由を示す、仕様トラップの議論を明確にする。
マルチエージェントアライメントのダイナミクスを理解するための情報理論の枠組みとして, シントロピーを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: I argue that AI alignment should be reconceived as architecting syntropic, reasons-responsive agents through process-based, multi-agent, developmental mechanisms rather than encoding fixed human value content. The paper makes three philosophical contributions. First, I articulate the ``specification trap'' argument demonstrating why content-based value specification appears structurally unstable due to the conjunction of the is-ought gap, value pluralism, and the extended frame problem. Second, I propose syntropy -- the recursive reduction of mutual uncertainty between agents through state alignment -- as an information-theoretic framework for understanding multi-agent alignment dynamics. Third, I establish a functional distinction between genuine and simulated moral capacity grounded in compatibilist theories of guidance control, coupled with an embodied experimental paradigm and verification regime providing operational criteria independent of phenomenological claims. This paper represents the philosophical component of a broader research program whose empirical validation is being developed in a separate project currently in preparation. While the framework generates specific, falsifiable predictions about value emergence and moral agency in artificial systems, empirical validation remains pending.
- Abstract(参考訳): AIアライメントは、固定された人間の価値コンテンツをエンコードするのではなく、プロセスベース、マルチエージェント、発達メカニズムを通じて、シントロピックで理由対応のエージェントを設計するものとして再認識されるべきである、と私は主張する。
論文には3つの哲学的貢献がある。
まず、コンテンツベースの値仕様がなぜ構造的に不安定なように見えるのか、すなわち、Is-oughtギャップ、値の多元性、および拡張フレーム問題と組み合わせて説明する。
第2に,マルチエージェントアライメントのダイナミクスを理解するための情報理論の枠組みとして,エージェント間の相互不確実性を再帰的に低減するシントロピーを提案する。
第3に,指導制御のコンパチビリスト理論に基づく真のモラル能力とシミュレートされたモラル能力とを,現象学的クレームに依存しない運用基準を具現化した実験パラダイムと検証体制とで機能的に区別する。
本稿では,現在準備中の別プロジェクトにおいて実証的検証が進められている,より広範な研究プログラムの哲学的構成要素について述べる。
このフレームワークは、人工システムにおける価値の出現と道徳的エージェンシーに関する、具体的で実証可能な予測を生成するが、実証的な検証は保留されている。
関連論文リスト
- Disagreements in Reasoning: How a Model's Thinking Process Dictates Persuasion in Multi-Agent Systems [49.69773210844221]
本稿では,説得力はモデルスケールの関数である,という一般的な仮説に挑戦する。
一連のマルチエージェントの説得実験を通じて、パーサーション・デュナリティ(Persuasion Duality)と呼ばれる基本的なトレードオフを明らかにする。
以上の結果から, LRMの推理過程は説得に対する抵抗性が大きく, 当初の信念をより堅固に維持していることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T12:03:10Z) - Probabilistic Modeling of Latent Agentic Substructures in Deep Neural Networks [7.4145864319417285]
ニューラルモデルに対する確率論的モデリングに基づくインテリジェントエージェンシーの理論を開発する。
線形プールや連立結果空間では厳密な一様性は不可能であるが、3つ以上の結果が得られる。
論文 参考訳(メタデータ) (2025-09-08T13:55:01Z) - Explainable Chain-of-Thought Reasoning: An Empirical Analysis on State-Aware Reasoning Dynamics [69.00587226225232]
本研究では,CoTトラジェクトリを構造化潜在力学に抽象化する状態認識遷移フレームワークを提案する。
推論のグローバルな構造を特徴づけるために、それらの進行をマルコフ連鎖としてモデル化する。
この抽象化は、意味的役割の識別、時間的パターンの可視化、一貫性評価など、さまざまな分析をサポートする。
論文 参考訳(メタデータ) (2025-08-29T18:53:31Z) - Toward a Graph-Theoretic Model of Belief: Confidence, Credibility, and Structural Coherence [0.0]
本稿では、有向重み付きグラフとして、信念システムに対する最小の定式化を導入する。
論理的および議論に基づくフレームワークとは異なり、バイナリの正当化ステータスや推論的クロージャをコミットすることなく、きめ細かい構造表現をサポートする。
その目的は、信念体系の内部組織を解析するための基盤となる基盤を提供することである。
論文 参考訳(メタデータ) (2025-08-05T14:03:23Z) - Bayesian Evolutionary Swarm Architecture: A Formal Epistemic System Grounded in Truth-Based Competition [0.0]
本稿では,構造化競争と信念修正を通じて進化する確率的エージェントからなる人工知能システムのための数学的に厳密な枠組みを紹介する。
このシステムは、真理を進化的誘引者として確立し、検証可能な知識は計算可能で自己制御可能な群の中で敵の圧力から生じることを証明している。
論文 参考訳(メタデータ) (2025-06-23T23:27:44Z) - Bayesian Epistemology with Weighted Authority: A Formal Architecture for Truth-Promoting Autonomous Scientific Reasoning [0.0]
本稿では,ベイジアン・エピステロジーとウェイト・オーソリティ(BEWA)を紹介する。
BEWAは、構造化された科学的主張に対する動的で確率論的に一貫性のある関数としての信念を運用している。
グラフベースのクレーム伝搬、権威的信頼性モデリング、暗号化アンカー、ゼロ知識監査検証をサポートする。
論文 参考訳(メタデータ) (2025-06-19T04:22:35Z) - Answering Causal Queries at Layer 3 with DiscoSCMs-Embracing
Heterogeneity [0.0]
本稿では, 分散一貫性構造因果モデル (DiscoSCM) フレームワークを, 反事実推論の先駆的アプローチとして提唱する。
論文 参考訳(メタデータ) (2023-09-17T17:01:05Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。