論文の概要: Asterisk Operator
- arxiv url: http://arxiv.org/abs/2509.13364v1
- Date: Mon, 15 Sep 2025 16:11:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.5616
- Title: Asterisk Operator
- Title(参考訳): アスタリスク・オペレーター
- Authors: Zixi Li,
- Abstract要約: 本稿では,ASPP(Adjacency-Structured Parallel Propagation)に基づく抽象的推論のための新しい統合フレームワークを提案する。
我々は、$ast$-operatorが、グローバルな推論能力を確保しながら、局所的な計算制約を維持していることを証明した。
提案手法は, 6M パラメータのみを用いて, ARC2 バリデーションにおける100%の精度を実現する。
- 参考スコア(独自算出の注目度): 0.16244541005112745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the \textbf{Asterisk Operator} ($\ast$-operator), a novel unified framework for abstract reasoning based on Adjacency-Structured Parallel Propagation (ASPP). The operator formalizes structured reasoning tasks as local, parallel state evolution processes guided by implicit relational graphs. We prove that the $\ast$-operator maintains local computational constraints while achieving global reasoning capabilities, providing an efficient and convergent computational paradigm for abstract reasoning problems. Through rigorous mathematical analysis and comprehensive experiments on ARC2 challenges and Conway's Game of Life, we demonstrate the operator's universality, convergence properties, and superior performance. Our innovative Embedding-Asterisk distillation method achieves 100\% accuracy on ARC2 validation with only 6M parameters, representing a significant breakthrough in neural-symbolic reasoning. \textbf{Keywords:} Abstract Reasoning, Adjacency Structure, Parallel Propagation, Asterisk Operator, Convergence, Universal Approximation
- Abstract(参考訳): 本稿では,Adjacency-Structured Parallel Propagation (ASPP)に基づく抽象的推論のための新しい統合フレームワークである「textbf{Asterisk Operator} (\ast$-operator)」を提案する。
演算子は、構造的推論タスクを、暗黙のリレーショナルグラフで導かれる局所的で並列な状態進化プロセスとして定式化する。
我々は、$\ast$-operatorが、グローバル推論能力を確保しながら局所的な計算制約を維持し、抽象推論問題に対する効率的で収束した計算パラダイムを提供することを証明した。
ARC2問題とコンウェイのゲーム・オブ・ライフに関する厳密な数学的解析と包括的な実験を通じて、作用素の普遍性、収束特性、優れた性能を実証する。
本発明のEmbeding-Asterisk蒸留法は, ARC2バリデーションにおいて, 6Mパラメータのみで100倍の精度を達成し, ニューラルシンボリック推論における重要なブレークスルーとなった。
\textbf{Keywords:} 抽象推論、隣接構造、並列伝搬、アスタリスク演算子、収束、ユニバーサル近似
関連論文リスト
- Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - BRiTE: Bootstrapping Reinforced Thinking Process to Enhance Language Model Reasoning [78.63421517563056]
大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な機能を示した。
本稿では,新しいグラフィカルモデルを用いてLLM推論を定式化する統一確率的フレームワークを提案する。
本稿では,Bootstrapping Reinforced Thinking Process (BRiTE)アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-01-31T02:39:07Z) - Advancing Algorithmic Approaches to Probabilistic Argumentation under the Constellation Approach [0.0]
完全拡張である引数の集合の確率を計算する複雑なタスクのアルゴリズムを開発する。
実験的評価は我々のアプローチの可能性を示唆している。
論文 参考訳(メタデータ) (2024-07-06T12:08:38Z) - Consciousness-Inspired Spatio-Temporal Abstractions for Better Generalization in Reinforcement Learning [83.41487567765871]
Skipperはモデルベースの強化学習フレームワークである。
これは、与えられたタスクをより小さく、より管理しやすいサブタスクに自動的に一般化する。
環境の関連部分には、スパースな意思決定と集中した抽象化を可能にする。
論文 参考訳(メタデータ) (2023-09-30T02:25:18Z) - Efficient Alternating Minimization Solvers for Wyner Multi-View
Unsupervised Learning [0.0]
本稿では,計算効率のよい解法の開発を可能にする2つの新しい定式化法を提案する。
提案した解法は, 計算効率, 理論的収束保証, ビュー数による局所最小値複雑性, 最先端技術と比較して, 例外的な精度を提供する。
論文 参考訳(メタデータ) (2023-03-28T10:17:51Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Probabilistic Entity Representation Model for Chain Reasoning over
Knowledge Graphs [18.92547855877845]
本稿では,知識グラフ上の論理的推論のための確率的エンティティ表現モデル(PERM)を提案する。
PERMは、エンティティを平均と共分散パラメータで多変量ガウス密度としてエンコードし、意味的位置と滑らかな決定境界をキャプチャする。
われわれは, PERMの薬剤再精製事例研究における能力を示すとともに, 提案された研究が, 現行の方法よりもはるかに優れたF1薬剤を推奨できることを実証した。
論文 参考訳(メタデータ) (2021-10-26T09:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。