論文の概要: Bayesian Epistemology with Weighted Authority: A Formal Architecture for Truth-Promoting Autonomous Scientific Reasoning
- arxiv url: http://arxiv.org/abs/2506.16015v1
- Date: Thu, 19 Jun 2025 04:22:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.936426
- Title: Bayesian Epistemology with Weighted Authority: A Formal Architecture for Truth-Promoting Autonomous Scientific Reasoning
- Title(参考訳): 重み付けされた権限を持つベイズ的認識論:真理推進型自律科学的推論のための形式的アーキテクチャ
- Authors: Craig S. Wright,
- Abstract要約: 本稿では,ベイジアン・エピステロジーとウェイト・オーソリティ(BEWA)を紹介する。
BEWAは、構造化された科学的主張に対する動的で確率論的に一貫性のある関数としての信念を運用している。
グラフベースのクレーム伝搬、権威的信頼性モデリング、暗号化アンカー、ゼロ知識監査検証をサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The exponential expansion of scientific literature has surpassed the epistemic processing capabilities of both human experts and current artificial intelligence systems. This paper introduces Bayesian Epistemology with Weighted Authority (BEWA), a formally structured architecture that operationalises belief as a dynamic, probabilistically coherent function over structured scientific claims. Each claim is contextualised, author-attributed, and evaluated through a system of replication scores, citation weighting, and temporal decay. Belief updates are performed via evidence-conditioned Bayesian inference, contradiction processing, and epistemic decay mechanisms. The architecture supports graph-based claim propagation, authorial credibility modelling, cryptographic anchoring, and zero-knowledge audit verification. By formalising scientific reasoning into a computationally verifiable epistemic network, BEWA advances the foundation for machine reasoning systems that promote truth utility, rational belief convergence, and audit-resilient integrity across dynamic scientific domains.
- Abstract(参考訳): 科学文献の指数的拡大は、人間の専門家と現在の人工知能システムの両面において、疫学的な処理能力を上回っている。
本稿では,構造化された科学的主張に対する動的で確率論的に一貫性のある関数としての信念を運用する,正式に構成されたアーキテクチャであるBayesian Epistemology with Weighted Authority(BEWA)を紹介する。
各クレームは、文脈化され、著者が分散され、複製スコア、引用重み付け、時間減衰のシステムを通じて評価される。
信念の更新は、証拠条件付きベイズ推論、矛盾処理、およびてんかんの崩壊機構によって行われる。
このアーキテクチャは、グラフベースのクレーム伝搬、権威的信頼性モデリング、暗号化アンカー、ゼロ知識監査検証をサポートする。
BEWAは、科学的推論を計算的に検証可能なてんかんネットワークにフォーマルにすることで、真理性、合理的な信念の収束、動的科学領域における監査-弾力的な整合性を促進する機械推論システムの基盤を推進している。
関連論文リスト
- Scientific Image Synthesis: Benchmarking, Methodologies, and Downstream Utility [57.83550091882176]
生成パラダイム,評価,下流利用における科学的画像合成について検討する。
本稿では,情報の有用性と論理的妥当性に基づいて生成した画像を評価するSciGenBenchを紹介する。
厳密に検証された合成科学画像上の微調整された大規模マルチモーダルモデルにより、一貫した推論ゲインが得られることを示す。
論文 参考訳(メタデータ) (2026-01-17T14:18:36Z) - Exploring Syntropic Frameworks in AI Alignment: A Philosophical Investigation [0.0]
AIアライメントは、プロセスベース、マルチエージェント、開発メカニズムを通じて、シントロピックで理由対応のエージェントを設計するものとして再認識されるべきである、と私は主張する。
コンテンツベースの値仕様が構造的に不安定なように見える理由を示す、仕様トラップの議論を明確にする。
マルチエージェントアライメントのダイナミクスを理解するための情報理論の枠組みとして, シントロピーを提案する。
論文 参考訳(メタデータ) (2025-11-19T23:31:29Z) - Autonomous Agents for Scientific Discovery: Orchestrating Scientists, Language, Code, and Physics [82.55776608452017]
大規模言語モデル(LLM)は、人間の科学者、自然言語、コンピュータ言語とコード、物理学との相互作用を編成する柔軟性と汎用性を備えたフレームワークを提供する。
本稿では, LLMを基盤とした科学エージェントの展望と展望と, 科学発見のライフサイクルを変革する上でのその役割について述べる。
オープンな研究課題を特定し、より堅牢で汎用的で適応的な科学エージェントを構築するための有望な方向性を概説する。
論文 参考訳(メタデータ) (2025-10-10T22:26:26Z) - Aligning Perception, Reasoning, Modeling and Interaction: A Survey on Physical AI [57.44526951497041]
我々は、物理的原則と具体的推論プロセスの両方において、学習の基礎となるインテリジェントなシステムを提唱する。
我々は、物理現象を説明でき、将来の状態を予測できる次世代の世界モデルを構想する。
論文 参考訳(メタデータ) (2025-10-06T16:16:03Z) - Newton to Einstein: Axiom-Based Discovery via Game Design [55.30047000068118]
本稿では,ルール進化システムとして科学調査を再放送するゲームデザインフレームワークを提案する。
固定された仮定内で動作する従来のMLアプローチとは異なり、本手法は新たな理論構造の発見を可能にする。
論文 参考訳(メタデータ) (2025-09-05T18:59:18Z) - A Survey of Scientific Large Language Models: From Data Foundations to Agent Frontiers [251.23085679210206]
科学大規模言語モデル(Sci-LLMs)は、科学研究において、知識の表現、統合、適用の方法を変えつつある。
この調査は、モデルとその基盤となるデータ基板の共進化として、Sci-LLMの開発を再考する。
我々は、科学的データの統一された分類法と、科学的知識の階層的なモデルを定式化する。
論文 参考訳(メタデータ) (2025-08-28T18:30:52Z) - Active Inference AI Systems for Scientific Discovery [1.450405446885067]
この観点では、進歩は抽象論、推論、経験的根拠の3つのギャップを互いに強化する。
デザイン原則は、想像空間を推論し、世界から学ぶシステムのために提案されている。
論文 参考訳(メタデータ) (2025-06-26T14:43:04Z) - Position: Intelligent Science Laboratory Requires the Integration of Cognitive and Embodied AI [98.19195693735487]
知的科学研究所(ISL)のパラダイムを提案する。
ISLは、認知と具体的知性を深く統合した多層クローズドループフレームワークである。
このようなシステムは、現在の科学的発見の限界を克服するために不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-24T13:31:44Z) - Bayesian Evolutionary Swarm Architecture: A Formal Epistemic System Grounded in Truth-Based Competition [0.0]
本稿では,構造化競争と信念修正を通じて進化する確率的エージェントからなる人工知能システムのための数学的に厳密な枠組みを紹介する。
このシステムは、真理を進化的誘引者として確立し、検証可能な知識は計算可能で自己制御可能な群の中で敵の圧力から生じることを証明している。
論文 参考訳(メタデータ) (2025-06-23T23:27:44Z) - Beyond Prediction -- Structuring Epistemic Integrity in Artificial Reasoning Systems [0.0]
構造的推論、命題的コミットメント、矛盾検出をサポートする。
信念表現、メタ認知プロセス、規範的検証を形式化し、象徴的推論、知識グラフ、ブロックチェーンベースの正当化を統合する。
論文 参考訳(メタデータ) (2025-06-19T04:20:55Z) - Modal Logic for Stratified Becoming: Actualization Beyond Possible Worlds [55.2480439325792]
本稿では,階層化現実化の考え方に基づくモーダル論理の新しいフレームワークを開発する。
伝統的なクリプキ意味論は、モーダル作用素を完全決定的な選択肢に対する定量化として扱う。
本稿では,モダリティをオントロジ的安定性のレベルによってインデクシングするSAL(Stratetified Actualization Logic)を提案する。
論文 参考訳(メタデータ) (2025-06-12T18:35:01Z) - Atomic Reasoning for Scientific Table Claim Verification [83.14588611859826]
非専門家は、その高い情報密度と認識される信頼性のために、科学的表に基づく主張を誤解させるおそれがある。
既存のテーブルクレーム検証モデル、例えば最先端の大規模言語モデル(LLM)は、しばしば精密なきめ細かい推論に苦しむ。
認知負荷理論に触発されて、表に基づく主張を解釈するモデルの能力を高めるには、認知負荷を減らす必要がある。
論文 参考訳(メタデータ) (2025-06-08T02:46:22Z) - "Cause" is Mechanistic Narrative within Scientific Domains: An Ordinary Language Philosophical Critique of "Causal Machine Learning" [2.5782973781085383]
因果学習は統計学と機械学習の研究の主要なテーマとして登場した。
本稿では,真の原因と影響現象の認識について考察する。
論文 参考訳(メタデータ) (2025-01-10T10:36:26Z) - In Defence of Post-hoc Explainability [0.0]
我々は、科学AIにおけるポストホック解釈可能性の哲学的枠組みとして計算補間主義(CI)を紹介した。
ポストホック合理化が信頼性のあるパフォーマンスと共存する人間の専門知識と平行して描くことで、CIは経験的検証によって適切に拘束された場合、構造化されたモデル解釈を通じて科学的知識が生まれることを証明している。
論文 参考訳(メタデータ) (2024-12-23T06:22:03Z) - Causal Representation Learning from Multimodal Biomedical Observations [57.00712157758845]
バイオメディカルデータセットの理解を容易にするために,マルチモーダルデータに対するフレキシブルな識別条件と原理的手法を開発した。
主要な理論的貢献は、モジュラリティ間の因果関係の構造的空間性である。
実世界のヒト表現型データセットの結果は、確立された生物医学研究と一致している。
論文 参考訳(メタデータ) (2024-11-10T16:40:27Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - SciFact-Open: Towards open-domain scientific claim verification [61.288725621156864]
本稿では,科学的クレーム検証システムの性能評価を目的とした新しいテストコレクションであるSciFact-Openを提案する。
我々は、4つの最先端の科学的クレーム検証モデルの上位予測をプールし、注釈付けすることで、科学的クレームの証拠を収集する。
その結果,SciFact-Openへの一般化に苦慮する小形コーパス上で開発されたシステムは,少なくとも15F1の性能低下を示すことがわかった。
論文 参考訳(メタデータ) (2022-10-25T05:45:00Z) - Expressing High-Level Scientific Claims with Formal Semantics [0.8258451067861932]
我々は、すべての分野の科学論文のサンプルから主要な主張を分析する。
それらの意味論は RDF や OWL のような形式論の直接的な応用よりも複雑である。
ここでは、このスーパーパターンの5つのスロットのインスタンス化が、高階論理における厳密に定義されたステートメントにどのように導かれるかを示す。
論文 参考訳(メタデータ) (2021-09-27T09:52:49Z) - Formalizing Falsification for Theories of Consciousness Across
Computational Hierarchies [0.0]
統合情報理論(IIT)は、意識の卓越した理論として広く見なされている。
展開論」という形での認識論的な問題は、IITの反感をもたらした。
IITが有限状態オートマトンレベルで同時にファルシフィケートされ、状態オートマトンレベルでは不可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T18:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。