論文の概要: Metagoals Endowing Self-Modifying AGI Systems with Goal Stability or Moderated Goal Evolution: Toward a Formally Sound and Practical Approach
- arxiv url: http://arxiv.org/abs/2412.16559v1
- Date: Sat, 21 Dec 2024 09:57:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:59:23.242968
- Title: Metagoals Endowing Self-Modifying AGI Systems with Goal Stability or Moderated Goal Evolution: Toward a Formally Sound and Practical Approach
- Title(参考訳): 目標安定性・調整目標進化を考慮した自己修正型AGIシステムのメタゴアル : 形式的健全・実践的アプローチに向けて
- Authors: Ben Goertzel,
- Abstract要約: 我々は、中程度のゴール進化とゴール安定性の追求を組み合わせたハイブリッドメタゴールの実用的価値を論じる。
目標不変量の維持に伴う自己修正のバランスは、高い自己理解度など、他の興味深い認知的側面を持つことが多い。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We articulate here a series of specific metagoals designed to address the challenge of creating AGI systems that possess the ability to flexibly self-modify yet also have the propensity to maintain key invariant properties of their goal systems 1) a series of goal-stability metagoals aimed to guide a system to a condition in which goal-stability is compatible with reasonably flexible self-modification 2) a series of moderated-goal-evolution metagoals aimed to guide a system to a condition in which control of the pace of goal evolution is compatible with reasonably flexible self-modification The formulation of the metagoals is founded on fixed-point theorems from functional analysis, e.g. the Contraction Mapping Theorem and constructive approximations to Schauder's Theorem, applied to probabilistic models of system behavior We present an argument that the balancing of self-modification with maintenance of goal invariants will often have other interesting cognitive side-effects such as a high degree of self understanding Finally we argue for the practical value of a hybrid metagoal combining moderated-goal-evolution with pursuit of goal-stability -- along with potentially other metagoals relating to goal-satisfaction, survival and ongoing development -- in a flexible fashion depending on the situation
- Abstract(参考訳): ここでは、フレキシブルな自己修正能力を持つAGIシステムの構築という課題に対処するために設計された一連の特定のメタゴールについて述べます。 1) 目標の不変性を維持することを目的とした一連の目標安定メタゴール、2) 目標の進化のペースが合理的に柔軟な自己修正と相容れない状態にシステムを導くことを目的とした中道的な目標進化メタゴール メタゴールの定点定理に基づいて、機能分析、例えば、契約マッピングの定理と構成の近似 自己修正の確率論的モデルに適用する。
関連論文リスト
- Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments [50.310636905746975]
実世界の機械学習システムは、基礎となるデータ生成プロセスの分散シフトによって、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
我々はこれらの制限を克服するために自己修復機械学習(SHML)を提案する。
論文 参考訳(メタデータ) (2024-10-31T20:05:51Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Temporally Extended Goal Recognition in Fully Observable
Non-Deterministic Domain Models [43.460098744623416]
既存のアプローチでは、ゴール仮説は1つの最終状態上の1つの共役公式からなると仮定している。
完全可観測非決定論的(FOND)計画領域モデルにおける時間的拡張目標に焦点をあてる。
実験結果から, 異なる認識環境における時間的拡張目標の認識において, 提案手法が正確であることが示唆された。
論文 参考訳(メタデータ) (2023-06-14T18:02:00Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - Goal-Conditioned Q-Learning as Knowledge Distillation [136.79415677706612]
目標条件設定における非政治強化学習と知識蒸留との関連について検討する。
これは,目標の空間が高次元である場合に,目標条件付き非政治強化学習の性能を向上させることを実証的に示す。
また,複数のスパース目標を同時に達成した場合に,この手法を効果的に学習できることを示す。
論文 参考訳(メタデータ) (2022-08-28T22:01:10Z) - Solution and Fitness Evolution (SAFE): Coevolving Solutions and Their
Objective Functions [4.149117182410553]
戦略をテキスト化するための効果的な客観的関数は、目的への距離の単純な関数ではないかもしれない。
我々はtextbfSolution textbfAnd textbfFitness textbfSAFE, textitcommensalistic coevolutionary algorithmを提案する。
論文 参考訳(メタデータ) (2022-06-25T18:41:00Z) - Planning to Practice: Efficient Online Fine-Tuning by Composing Goals in
Latent Space [76.46113138484947]
汎用ロボットは、現実世界の非構造環境において困難なタスクを完了するために、多様な行動レパートリーを必要とする。
この問題に対処するため、目標条件強化学習は、コマンド上の幅広いタスクの目標に到達可能なポリシーを取得することを目的としている。
本研究では,長期的課題に対する目標条件付き政策を実践的に訓練する手法であるPlanning to Practiceを提案する。
論文 参考訳(メタデータ) (2022-05-17T06:58:17Z) - Goal-directed Planning and Goal Understanding by Active Inference:
Evaluation Through Simulated and Physical Robot Experiments [3.7660066212240757]
目標指向の行動計画が自由エネルギー原理を用いて定式化可能であることを示す。
提案するモデルは、変動的リカレントニューラルネットワークモデルに基づいて構築される。
論文 参考訳(メタデータ) (2022-02-21T03:48:35Z) - Adversarial Intrinsic Motivation for Reinforcement Learning [60.322878138199364]
政策状態の訪問分布と目標分布とのワッサースタイン-1距離が強化学習タスクに有効に活用できるかどうかを検討する。
我々のアプローチは、AIM (Adversarial Intrinsic Motivation) と呼ばれ、このワッサーシュタイン-1距離をその双対目的を通して推定し、補足報酬関数を計算する。
論文 参考訳(メタデータ) (2021-05-27T17:51:34Z) - Recognizing LTLf/PLTLf Goals in Fully Observable Non-Deterministic
Domain Models [26.530274055506453]
目標認識(Goal Recognition)は、エージェントが目標とする正しい目的の目標を特定するタスクです。
我々は,時間的拡張目標を認識可能な新しいアプローチを開発した。
論文 参考訳(メタデータ) (2021-03-22T09:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。