論文の概要: TRISKELION-1: Unified Descriptive-Predictive-Generative AI
- arxiv url: http://arxiv.org/abs/2511.00711v1
- Date: Sat, 01 Nov 2025 21:23:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.907851
- Title: TRISKELION-1: Unified Descriptive-Predictive-Generative AI
- Title(参考訳): TRISKELION-1:Unified Descriptive-Predictive-Generative AI
- Authors: Nardeep Kumar, Arun Kanwar,
- Abstract要約: TRISKELION-1は、統一された記述予測生成アーキテクチャである。
統計的、機械的、および生成的推論を1つのエンコーダ・デコーダ・フレームワークに統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: TRISKELION-1 is a unified descriptive-predictive-generative architecture that integrates statistical, mechanistic, and generative reasoning within a single encoder-decoder framework. The model demonstrates how descriptive representation learning, predictive inference, and generative synthesis can be jointly optimized using variational objectives. Experiments on MNIST validate that descriptive reconstruction, predictive classification, and generative sampling can coexist stably within one model. The framework provides a blueprint toward universal intelligence architectures that connect interpretability, accuracy, and creativity.
- Abstract(参考訳): TRISKELION-1は、単一のエンコーダ・デコーダ・フレームワークに統計的・機械的・生成的推論を統合する、統一的な記述的・予測的・生成的アーキテクチャである。
このモデルは, 変動目的を用いて, 記述表現学習, 予測推論, 生成合成を協調的に最適化する方法を実証する。
MNISTの実験は、記述的再構成、予測的分類、生成的サンプリングが1つのモデル内で安定的に共存できることを検証する。
このフレームワークは、解釈可能性、正確性、創造性を接続するユニバーサルインテリジェンスアーキテクチャに向けた青写真を提供する。
関連論文リスト
- RealUnify: Do Unified Models Truly Benefit from Unification? A Comprehensive Benchmark [71.3555284685426]
本稿では,双方向機能相乗効果を評価するためのベンチマークであるRealUnifyを紹介する。
RealUnifyは、10のカテゴリと32のサブタスクにまたがる、細心の注意を払ってアノテートされた1000のインスタンスで構成されている。
現在の統一モデルは、効果的な相乗効果を達成するのに依然として苦労しており、アーキテクチャの統一だけでは不十分であることを示している。
論文 参考訳(メタデータ) (2025-09-29T15:07:28Z) - Preference-Based Dynamic Ranking Structure Recognition [16.057238629517634]
本稿では、嗜好に基づくデータに対するランキング構造認識の新しい枠組みを提案する。
まず、祝福されたブラッドリー・テリーモデルに対するスペクトル推定に時間的罰則を組み込むことで、動的ランキング群を同定する手法を開発する。
構造的変化を検出するために,革新的目的関数を導入し,動的プログラミングに基づく実践可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-29T09:06:05Z) - Scaling Laws and Representation Learning in Simple Hierarchical Languages: Transformers vs. Convolutional Architectures [49.19753720526998]
合成データセット上でのニューラルネットワーク性能に関する理論的スケーリング法則を導出する。
局所性と重み共有によって生成過程の構造が整った畳み込みネットワークは、性能の高速化を享受できることを示す。
この発見は、ニューラルネットワークのスケーリング法則に基づくアーキテクチャ上のバイアスを明らかにし、モデルアーキテクチャとデータの統計的性質の間の相互作用によって表現学習がどのように形成されるかを強調している。
論文 参考訳(メタデータ) (2025-05-11T17:44:14Z) - Towards Human Cognition: Visual Context Guides Syntactic Priming in Fusion-Encoded Models [3.63819860423174]
構造プライミング(Structure priming)は、特定の構文構造への露出が、その後の発話で同じ構造を生成する可能性を高める認知現象である。
本稿では,最初のマルチモーダル構造プライミングデータセットであるPRISMATICを紹介する。
文レベルの構造的プライミング効果を特に評価するために設計された,新しい参照不要評価指標である構文保存指数(SPI)を提案する。
論文 参考訳(メタデータ) (2025-02-24T21:33:27Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - Model-Based Counterfactual Synthesizer for Interpretation [40.01787107375103]
機械学習モデルを解釈するためのモデルベース対実合成器(MCS)フレームワークを提案する。
まずモデルに基づく逆ファクト過程を分析し、条件付き生成逆数ネット(CGAN)を用いてベースシンセサイザーを構築する。
それらの希少なクエリに対する反ファクト宇宙をよりよく近似するために,MCSフレームワークのトレーニングを行うために,傘サンプリング手法を新たに採用した。
論文 参考訳(メタデータ) (2021-06-16T17:09:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。