論文の概要: The Reflexive Integrated Information Unit: A Differentiable Primitive for Artificial Consciousness
- arxiv url: http://arxiv.org/abs/2506.13825v1
- Date: Sun, 15 Jun 2025 14:07:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.172776
- Title: The Reflexive Integrated Information Unit: A Differentiable Primitive for Artificial Consciousness
- Title(参考訳): 反射型統合情報ユニット:人工意識のための識別可能なプリミティブ
- Authors: Gnankan Landry Regis N'guessan, Issa Karambal,
- Abstract要約: リフレクティブ・インテリジェンス・インフォメーション・ユニット(Reflexive Integrated Information Unit, RIIU)は, 2つのベクトルで隠れた状態を$h$に拡張するリカレント・セルである。
スライドウインドウの共分散と微分可能なAuto-$Phi$サロゲートにより、各RIIUはローカル情報の統合をオンラインで最大化する。
8ウェイグリッドワールドでは、4層RIIUエージェントがアクチュエータ故障後の13ステップで、パラメータマッチングGRUの2倍の速さで報酬を90%以上回復する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Research on artificial consciousness lacks the equivalent of the perceptron: a small, trainable module that can be copied, benchmarked, and iteratively improved. We introduce the Reflexive Integrated Information Unit (RIIU), a recurrent cell that augments its hidden state $h$ with two additional vectors: (i) a meta-state $\mu$ that records the cell's own causal footprint, and (ii) a broadcast buffer $B$ that exposes that footprint to the rest of the network. A sliding-window covariance and a differentiable Auto-$\Phi$ surrogate let each RIIU maximize local information integration online. We prove that RIIUs (1) are end-to-end differentiable, (2) compose additively, and (3) perform $\Phi$-monotone plasticity under gradient ascent. In an eight-way Grid-world, a four-layer RIIU agent restores $>90\%$ reward within 13 steps after actuator failure, twice as fast as a parameter-matched GRU, while maintaining a non-zero Auto-$\Phi$ signal. By shrinking "consciousness-like" computation down to unit scale, RIIUs turn a philosophical debate into an empirical mathematical problem.
- Abstract(参考訳): 人工意識の研究はパーセプトロンに匹敵するものではない:小型で訓練可能なモジュールで、コピー、ベンチマーク、反復的に改善できる。
リフレクティブ統合情報ユニット(Reflexive Integrated Information Unit, RIIU)は、リカレントセルで、隠れた状態の$h$を2つのベクトルで拡張する。
i) セルの因果フットプリントを記録するメタステート$\mu$
(ii)そのフットプリントをネットワークの他の部分に公開するブロードキャストバッファ$B$。
スライドウインドウの共分散と微分可能なAuto-$\Phi$サロゲートにより、各RIIUはローカル情報の統合をオンラインで最大化する。
RIIUs (1) が終端から終端の微分可能であることを証明し、(2) 加法的に構成し、(3) 勾配上昇下では$\Phi$-モノトン塑性を行う。
8ウェイグリッドワールドでは、4層RIIUエージェントがアクチュエータ故障後の13ステップ以内で$>90\%の報酬を復元し、パラメータマッチングGRUの2倍の速さで、非ゼロのAuto-$\Phi$信号を保持する。
意識のような」計算を単位スケールに縮小することで、RIIUは哲学的な議論を経験的な数学的問題に変換する。
関連論文リスト
- Policy-Based Radiative Transfer: Solving the $2$-Level Atom Non-LTE Problem using Soft Actor-Critic Reinforcement Learning [0.0]
本稿では,古典的2レベル原子非LTE放射伝達問題の解法として,新しい強化学習法を提案する。
エージェントのポリシーは、放射移動エンジンとの報酬ベースの相互作用によって完全に最適化される。
実験を通して、単純なフィードフォワードニューラルネットワークは、SEに対して、おそらく問題の移動目標の性質のために、厳密に訓練されただけでは解決できないことを示す。
論文 参考訳(メタデータ) (2025-04-22T08:03:09Z) - Simple ReFlow: Improved Techniques for Fast Flow Models [68.32300636049008]
拡散および流れマッチングモデルは、優れた生成性能を実現するが、多くのサンプリングステップを犠牲にしている。
我々は、力学、学習、推論のトレーニングに7つの改善点を提案する。
我々は、ニューラルネットワークによる高速な生成のために、最先端のFIDスコア(ガイダンスなし/参照なし)を達成している。
論文 参考訳(メタデータ) (2024-10-10T11:00:55Z) - On the Resilience of LLM-Based Multi-Agent Collaboration with Faulty Agents [58.79302663733703]
大規模言語モデルに基づくマルチエージェントシステムは、専門家エージェントの協力により、様々なタスクにまたがる優れた能力を示している。
不器用なエージェントや悪意のあるエージェントが与える影響 - システム全体のパフォーマンスにおいて、頻繁にタスクでエラーを犯すものは、いまだに過小評価されていない。
本稿では,下流タスクにおける障害要因下での各種システム構造のレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-08-02T03:25:20Z) - A Unified Scheme of ResNet and Softmax [8.556540804058203]
回帰問題を理論的に解析する: $| langle exp(Ax) + A x, bf 1_n rangle-1 ( exp(Ax) + Ax )
この回帰問題は、ソフトマックス回帰とResNetを組み合わせた統一的なスキームである。
論文 参考訳(メタデータ) (2023-09-23T21:41:01Z) - Provably Efficient Neural Offline Reinforcement Learning via Perturbed
Rewards [33.88533898709351]
VIPeRは、ランダム化された値関数のアイデアと悲観主義の原理を一致させる。
オフラインデータを複数回摂動することで、暗黙的に悲観性を得る。
ニューラルネットワーク関数近似を用いた一般的なマルコフ決定過程(MDP)において、証明可能かつ計算的に効率的である。
論文 参考訳(メタデータ) (2023-02-24T17:52:12Z) - Spatially heterogeneous learning by a deep student machine [0.0]
多数の調整可能なパラメータを持つディープニューラルネットワーク(DNN)は、ほとんどブラックボックスのままである。
我々は,教師学生設定と呼ばれる統計力学手法を用いて,NL$パーセプトロンと$c$入力からなるDNNと深度$L$の教師学習について検討した。
N gg c gg 1$ and $M gg 1$ with fixed $alpha=M/c$ using the replica method developed in (H. Yoshino,)
論文 参考訳(メタデータ) (2023-02-15T01:09:03Z) - Improved Convergence Guarantees for Shallow Neural Networks [91.3755431537592]
勾配降下法により訓練された深度2ニューラルネットの収束度を世界最小とする。
我々のモデルには、二次損失関数による回帰、完全連結フィードフォワードアーキテクチャ、RelUアクティベーション、ガウスデータインスタンス、逆ラベルといった特徴がある。
彼らは、少なくとも我々のモデルでは、収束現象がNTK体制をはるかに超越していることを強く示唆している」。
論文 参考訳(メタデータ) (2022-12-05T14:47:52Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Improved Sample Complexity for Incremental Autonomous Exploration in
MDPs [132.88757893161699]
我々は $epsilon$-optimal 目標条件付きポリシーのセットを学び、$ L$ ステップ内で段階的に到達可能なすべての状態を達成します。
DisCoは、コストに敏感な最短経路問題に対して$epsilon/c_min$-optimalポリシーを返すことができる最初のアルゴリズムです。
論文 参考訳(メタデータ) (2020-12-29T14:06:09Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。