論文の概要: Towards fuzzification of adaptation rules in self-adaptive architectures
- arxiv url: http://arxiv.org/abs/2112.09468v1
- Date: Fri, 17 Dec 2021 12:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 14:04:51.910899
- Title: Towards fuzzification of adaptation rules in self-adaptive architectures
- Title(参考訳): 自己適応型アーキテクチャにおける適応規則のファジフィケーションに向けて
- Authors: Tom\'a\v{s} Bure\v{s}, Petr Hn\v{e}tynka, Martin Kruli\v{s}, Danylo
Khalyeyev, Sebastian Hahner, Stephan Seifermann, Maximilian Walter, Robert
Heinrich
- Abstract要約: 我々は、自己適応型アーキテクチャにおける分析と計画段階にニューラルネットワークを活用することに注力する。
このようなニーズに対処する簡単な選択肢のひとつは、論理ルールに基づいた推論をニューラルネットワークに置き換えることだ。
この連続体の中でナビゲートする方法を示し、元の論理ルールを自然に埋め込むニューラルネットワークアーキテクチャを作成します。
- 参考スコア(独自算出の注目度): 2.730650695194413
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we focus on exploiting neural networks for the analysis and
planning stage in self-adaptive architectures. The studied motivating cases in
the paper involve existing (legacy) self-adaptive architectures and their
adaptation logic, which has been specified by logical rules. We further assume
that there is a need to endow these systems with the ability to learn based on
examples of inputs and expected outputs. One simple option to address such a
need is to replace the reasoning based on logical rules with a neural network.
However, this step brings several problems that often create at least a
temporary regress. The reason is the logical rules typically represent a large
and tested body of domain knowledge, which may be lost if the logical rules are
replaced by a neural network. Further, the black-box nature of generic neural
networks obfuscates how the systems work inside and consequently introduces
more uncertainty. In this paper, we present a method that makes it possible to
endow an existing self-adaptive architectures with the ability to learn using
neural networks, while preserving domain knowledge existing in the logical
rules. We introduce a continuum between the existing rule-based system and a
system based on a generic neural network. We show how to navigate in this
continuum and create a neural network architecture that naturally embeds the
original logical rules and how to gradually scale the learning potential of the
network, thus controlling the uncertainty inherent to all soft computing
models. We showcase and evaluate the approach on representative excerpts from
two larger real-life use cases.
- Abstract(参考訳): 本稿では,自己適応型アーキテクチャの解析と計画段階におけるニューラルネットワークの活用に着目する。
論文で研究されているモチベーションケースは、既存の(レガシ)自己適応アーキテクチャとそれらの適応論理であり、論理規則によって規定されている。
さらに,これらのシステムに対して,入力や期待出力の例に基づいて学習する能力を与える必要があると仮定する。
このようなニーズに対処する簡単な選択肢のひとつは、論理ルールに基づいた推論をニューラルネットワークに置き換えることだ。
しかし、このステップは、少なくとも一時的な回帰を引き起こすことが多いいくつかの問題をもたらす。
その理由は、論理ルールは一般的に、大きくてテストされたドメイン知識の塊を表しており、論理ルールがニューラルネットワークに置き換えられると失われる可能性があるためである。
さらに、ジェネリックニューラルネットワークのブラックボックスの性質は、システムの内部動作を曖昧にし、結果としてより不確実性をもたらす。
本稿では,ニューラルネットワークを用いて学習する能力を備えた自己適応型アーキテクチャの実現を可能にするとともに,論理ルールに存在するドメイン知識を保存可能にする手法を提案する。
本稿では,既存のルールベースシステムと汎用ニューラルネットワークに基づくシステムとの連続性について述べる。
この連続体でナビゲートする方法を示し、元の論理ルールを自然に組み込むニューラルネットワークアーキテクチャと、ネットワークの学習能力の段階的拡大方法を示し、すべてのソフトコンピューティングモデルに固有の不確実性を制御する。
実生活における2つの大きなユースケースにおける代表的抜粋に対するアプローチの紹介と評価を行った。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Reasoning Algorithmically in Graph Neural Networks [1.8130068086063336]
ニューラルネットワークの適応学習能力にアルゴリズムの構造的および規則に基づく推論を統合することを目的としている。
この論文は、この領域の研究に理論的および実践的な貢献を提供する。
論文 参考訳(メタデータ) (2024-02-21T12:16:51Z) - Building artificial neural circuits for domain-general cognition: a
primer on brain-inspired systems-level architecture [0.0]
本稿では,生体神経ネットワークにフレキシブル認知に必要な機能を持たせることの意義について概説する。
機械学習モデルがより複雑になるにつれて、これらの原則は、可能なアーキテクチャの広大な領域において、価値ある方向を提供するかもしれない。
論文 参考訳(メタデータ) (2023-03-21T18:36:17Z) - Extensions to Generalized Annotated Logic and an Equivalent Neural
Architecture [4.855957436171202]
本稿では,ニューロシンボリックシステムに対する望ましい基準のリストを提案し,既存のアプローチのいくつかがこれらの基準にどう対処するかを検討する。
次に、等価なニューラルアーキテクチャの作成を可能にするアノテーション付き一般化論理の拡張を提案する。
トレーニングプロセスの継続的な最適化に依存する従来のアプローチとは異なり、当社のフレームワークは、離散最適化を使用する二項化ニューラルネットワークとして設計されている。
論文 参考訳(メタデータ) (2023-02-23T17:39:46Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Knowledge-based Analogical Reasoning in Neuro-symbolic Latent Spaces [20.260546238369205]
ニューラルネットワークのパターン認識能力とシンボリック推論と背景知識を組み合わせたフレームワークを提案する。
ニューラルアルゴリズム推論」アプローチ [DeepMind 2020] からインスピレーションを得て、問題固有のバックグラウンド知識を使用します。
我々は、RAVENのプログレッシブ・マトリクスにおける視覚的類似性の問題でこれを検証し、人間のパフォーマンスと競合する精度を実現する。
論文 参考訳(メタデータ) (2022-09-19T04:03:20Z) - The mathematics of adversarial attacks in AI -- Why deep learning is
unstable despite the existence of stable neural networks [69.33657875725747]
固定アーキテクチャを用いた分類問題に対するニューラルネットワークのトレーニングに基づくトレーニング手順が,不正確あるいは不安定なニューラルネットワーク(正確であれば)を生み出すことを証明している。
鍵となるのは、安定かつ正確なニューラルネットワークは入力に依存する可変次元を持つ必要があり、特に、可変次元は安定性に必要な条件である。
我々の結果は、正確で安定したニューラルネットワークが存在するというパラドックスを示しているが、現代のアルゴリズムはそれらを計算していない。
論文 参考訳(メタデータ) (2021-09-13T16:19:25Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - A neural network model of perception and reasoning [0.0]
生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-02-26T06:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。