論文の概要: Toward IIT-Inspired Consciousness in LLMs: A Reward-Based Learning Framework
- arxiv url: http://arxiv.org/abs/2601.22786v1
- Date: Fri, 30 Jan 2026 10:07:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.374587
- Title: Toward IIT-Inspired Consciousness in LLMs: A Reward-Based Learning Framework
- Title(参考訳): LLMにおけるIITにインスパイアされた意識に向けて--逆向き学習フレームワーク
- Authors: Hamid Reza Akbari, Mohammad Hossein Sameti, Amir M. Mansourian, Mohammad Hossein Rohban, Hossein Sameti,
- Abstract要約: 本稿では、報酬に基づく学習パラダイムを用いて、言語モデルにおける意識の先導的理論である統合情報理論(IIT)の実装について検討する。
テキストの因果性、一貫性、統合性、意識的な処理に関連する特徴を定量化する新しい報酬関数を定式化する。
ドメインタスクの内、注意深いチューニングは、ベースモデルに匹敵する精度を維持しながら、出力長を最大31%削減する。
- 参考スコア(独自算出の注目度): 7.582178041791117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pursuit of Artificial General Intelligence (AGI) is a central goal in language model development, in which consciousness-like processing could serve as a key facilitator. While current language models are not conscious, they exhibit behaviors analogous to certain aspects of consciousness. This paper investigates the implementation of a leading theory of consciousness, Integrated Information Theory (IIT), within language models via a reward-based learning paradigm. IIT provides a formal, axiom-based mathematical framework for quantifying consciousness. Drawing inspiration from its core principles, we formulate a novel reward function that quantifies a text's causality, coherence and integration, characteristics associated with conscious processing. Empirically, it is found that optimizing for this IIT-inspired reward leads to more concise text generation. On out of domain tasks, careful tuning achieves up to a 31% reduction in output length while preserving accuracy levels comparable to the base model. In addition to primary task performance, the broader effects of this training methodology on the model's confidence calibration and test-time computational scaling is analyzed. The proposed framework offers significant practical advantages: it is conceptually simple, computationally efficient, requires no external data or auxiliary models, and leverages a general, capability-driven signal rather than task-specific heuristics. Code available at https://github.com/MH-Sameti/LLM_PostTraining.git
- Abstract(参考訳): 人工知能(AGI)の追求は、意識のような処理が重要なファシリテーターとなる言語モデル開発における中心的な目標である。
現在の言語モデルは意識的ではないが、意識の特定の側面に類似した行動を示す。
本稿では、報酬に基づく学習パラダイムを用いて、言語モデルにおける意識の先導的理論である統合情報理論(IIT)の実装について検討する。
IITは意識を定量化するための公式な公理ベースの数学的枠組みを提供する。
基本原理からインスピレーションを得て、テキストの因果関係、コヒーレンス、統合、意識的な処理に関連する特徴を定量化する新しい報酬関数を定式化する。
経験的に、このIITにインスパイアされた報酬を最適化することは、より簡潔なテキスト生成につながることが判明した。
ドメインタスクの内、注意深いチューニングは、ベースモデルに匹敵する精度を維持しながら、出力長を最大31%削減する。
主タスク性能に加えて、モデルの信頼性校正とテスト時間計算のスケーリングに対するこのトレーニング手法の広範な影響を解析する。
提案するフレームワークは,概念的にはシンプルで,計算効率が高く,外部データや補助モデルを必要としない上に,タスク固有のヒューリスティックではなく,汎用的な能力駆動型信号を利用するという,実用的なメリットがある。
https://github.com/MH-Sameti/LLM_PostTraining.gitで公開されている。
関連論文リスト
- A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning [50.68188138112555]
大規模言語モデルが自然に相乗的コアを開発することを示す。
中層の領域は相乗的処理を示し, 初期層と後期層は冗長性に依存していることがわかった。
この収束は、シナジスティック情報処理が知性の基本的な性質であることを示している。
論文 参考訳(メタデータ) (2026-01-11T10:48:35Z) - SEAL: Self-Evolving Agentic Learning for Conversational Question Answering over Knowledge Graphs [28.59157823781425]
SEALは、自己進化型エージェント学習に基づく、2段階のセマンティックパーシングフレームワークである。
SEALは、特にマルチホップ推論、比較、集約タスクにおいて、最先端のパフォーマンスを達成する。
その結果, 構造精度と計算効率の両面で有意な向上が認められた。
論文 参考訳(メタデータ) (2025-12-04T14:52:30Z) - Beyond the Black Box: A Cognitive Architecture for Explainable and Aligned AI [0.0]
ウェイトカルカリズム(Weight-Calculatism)は、第一原理に基づく新しい認知アーキテクチャである。
決定は解釈可能なウェイト・カルキュレーションモデルによって定式化される。
結果は、前例のないシナリオにおいて、アーキテクチャが透明で人間らしい推論と堅牢な学習を実現することを示唆している。
論文 参考訳(メタデータ) (2025-11-27T12:42:54Z) - Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - SA-GAT-SR: Self-Adaptable Graph Attention Networks with Symbolic Regression for high-fidelity material property prediction [1.4403769872061323]
我々はシンボリック回帰(SA-GAT-SR)と統合された新しい計算パラダイムである自己適応型グラフ注意ネットワークを導入する。
本フレームワークでは,注目重みを自動的に識別・調整する自己適応型符号化アルゴリズムを用いて,拡張可能な180次元特徴空間から重要な特徴をスクリーニングする。
その後、統合SRモジュールはこれらの特徴をコンパクトな解析式に蒸留し、量子力学的に意味のある関係を明確に示す。
論文 参考訳(メタデータ) (2025-05-01T16:05:10Z) - Generalising from Self-Produced Data: Model Training Beyond Human Constraints [0.0]
本稿では,AIモデルが新たな知識を自律的に生成し,検証する新しい枠組みを提案する。
このアプローチの中心は、人間のベンチマークを必要とせずに学習をガイドする、無制限で使い捨ての数値報酬である。
論文 参考訳(メタデータ) (2025-04-07T03:48:02Z) - Learning Task Representations from In-Context Learning [67.66042137487287]
大規模言語モデル(LLM)は、文脈内学習(ICL)において顕著な習熟性を示した。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法は,テキスト中の実演からタスク固有の情報を抽出し,テキストと回帰タスクの両方で優れる。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Erasing Conceptual Knowledge from Language Models [24.63143961814566]
概念レベルのアンラーニングに対する原則的アプローチである言語記憶の消去(ELM)を導入する。
ELMは、モデル自身の内省的分類能力によって定義される分布を一致させることで機能する。
ELMのバイオセキュリティ、サイバーセキュリティ、および文学ドメイン消去タスクに対する効果を実証する。
論文 参考訳(メタデータ) (2024-10-03T17:59:30Z) - A Novel Neural-symbolic System under Statistical Relational Learning [47.30190559449236]
NSF-SRLと呼ばれる統計的関係学習に基づくニューラルシンボリック・フレームワークを提案する。
シンボリック推論の結果は、深層学習モデルによる予測の洗練と修正に利用され、深層学習モデルはシンボリック推論プロセスの効率を高める。
我々は、このアプローチがニューラルシンボリックシステムの新しい標準となり、汎用人工知能の分野における将来の研究を促進すると信じている。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Great Truths are Always Simple: A Rather Simple Knowledge Encoder for
Enhancing the Commonsense Reasoning Capacity of Pre-Trained Models [89.98762327725112]
自然言語における常識推論は、人工知能システムの望ましい能力である。
複雑なコモンセンス推論タスクを解決するための典型的な解決策は、知識対応グラフニューラルネットワーク(GNN)エンコーダで事前訓練された言語モデル(PTM)を強化することである。
有効性にもかかわらず、これらのアプローチは重いアーキテクチャ上に構築されており、外部知識リソースがPTMの推論能力をどのように改善するかを明確に説明できない。
論文 参考訳(メタデータ) (2022-05-04T01:27:36Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。