論文の概要: Softlog-Softmax Layers and Divergences Contribute to a Computationally Dependable Ensemble Learning
- arxiv url: http://arxiv.org/abs/2506.04297v1
- Date: Wed, 04 Jun 2025 12:20:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.338022
- Title: Softlog-Softmax Layers and Divergences Contribute to a Computationally Dependable Ensemble Learning
- Title(参考訳): 計算依存型アンサンブル学習に寄与するソフトログソフトマックス層とダイバージェンス
- Authors: Abdourrahmane Mahamane Atto,
- Abstract要約: 本稿では,ソフトログソフトマックスカスケードがアンサンブル学習システムの一貫性と信頼性を向上させることを強調するための4段階のプロセスを提案する。
最初のプロセスは解剖学的であり、対象のアンサンブルモデルは、畳み込みフラストラムの定義に関する標準的要素によって構成される。
ソフトログは、複数のソフトログ-ソフトマックス層を通して、弱い対数操作を一貫性とリードの両方にするために導かれる。
第3のプロセスは神経情報理論に関するもので、一貫した値を得る情報測度を構築するために、ソフトログに基づくエントロピーと発散を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper proposes a 4-step process for highlighting that softlog-softmax cascades can improve both consistency and dependability of the next generation ensemble learning systems. The first process is anatomical in nature: the target ensemble model under consideration is composed by canonical elements relating to the definition of a convolutional frustum. No a priori is considered in the choice of canonical forms. Diversity is the main criterion for selecting these forms. It is shown that the more complex the problem, the more useful this ensemble diversity is. The second process is physiological and relates to neural engineering: a softlog is derived to both make weak logarithmic operations consistent and lead, through multiple softlog-softmax layers, to intermediate decisions in the sense of respecting the same class logic as that faced by the output layer. The third process concerns neural information theory: softlog-based entropy and divergence are proposed for the sake of constructing information measures yielding consistent values on closed intervals. These information measures are used to determine the relationships between individual and sub-community decisions in frustum diversitybased ensemble learning. The concluding process addresses the derivation of an informative performance tensor for the purpose of a reliable ensemble evaluation.
- Abstract(参考訳): 本稿では,次世代のアンサンブル学習システムにおいて,ソフトログ・ソフトマックスカスケードが一貫性と信頼性の両方を向上できることを示す4段階のプロセスを提案する。
最初のプロセスは解剖学的であり、対象のアンサンブルモデルは、畳み込みフラストラムの定義に関する標準的要素によって構成される。
標準形の選択には先入観は考慮されない。
多様性はこれらの形式を選択するための主要な基準である。
問題が複雑になればなるほど、このアンサンブルの多様性はより有用であることが示されている。
ソフトログは、複数のソフトログ-ソフトマックス層を通して弱い対数操作を整合させ、複数のソフトログ-ソフトマックス層を通して、出力層が直面するものと同一のクラス論理を尊重するという意味で中間的な決定を導くために導かれる。
第3のプロセスは、閉区間に一貫した値をもたらす情報測度を構築するために、ソフトログに基づくエントロピーと発散(英語版)という神経情報理論に関するものである。
これらの情報尺度は、フラストムの多様性に基づくアンサンブル学習において、個人とサブコミュニティの意思決定の関係を決定するために使用される。
コンセンサス処理は、信頼できるアンサンブル評価を目的とした情報伝達性能テンソルの導出に対処する。
関連論文リスト
- A Differentiable Rank-Based Objective For Better Feature Learning [20.576291802100048]
このアルゴリズムは、その微分可能な性質と学習可能なパラメータのおかげで、幅広い機械学習問題に適用できる。
我々は,おもちゃの例における基本変数選択から,畳み込みネットワークにおけるサリエンシマップ比較まで,ますます複雑な問題に対する difFOCI の評価を行った。
論文 参考訳(メタデータ) (2025-02-13T16:15:43Z) - What to Do When Your Discrete Optimization Is the Size of a Neural
Network? [24.546550334179486]
ニューラルネットワークを用いた機械学習アプリケーションは、離散最適化問題を解くことを含む。
離散的な設定で使用される古典的なアプローチは、大きなニューラルネットワークに対してうまくスケールしない。
連続経路(CP)法は,前者およびモンテカルロ法(MC)法を純粋に表現し,後者を表現している。
論文 参考訳(メタデータ) (2024-02-15T21:57:43Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - The Normalized Cross Density Functional: A Framework to Quantify
Statistical Dependence for Random Processes [6.625320950808605]
正規化クロス密度(NCD)と呼ばれる正定関数を用いて、2つのランダムプロセス(r.p.)間の統計的依存を測定する新しい手法を提案する。
NCDは2つのr.p.の確率密度関数から直接導出され、データ依存ヒルベルト空間、正規化クロス密度ヒルベルト空間(NCD-HS)を構成する。
我々は,FMCAがNCDの固有値と固有関数を直接実現したことを数学的に証明する。
論文 参考訳(メタデータ) (2022-12-09T02:12:41Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Dynamic Selection in Algorithmic Decision-making [9.172670955429906]
本稿では,内因性データを用いたオンライン学習アルゴリズムにおいて,動的選択問題を特定し,対処する。
データの内在性が決定の選択に影響を与えるため、新しいバイアス(自己充足バイアス)が発生する。
バイアスを補正するインストゥルメンタル変数ベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-28T01:41:37Z) - Continual Learning using a Bayesian Nonparametric Dictionary of Weight
Factors [75.58555462743585]
訓練されたニューラルネットワークは、シーケンシャルなタスク設定で破滅的な忘れを経験する傾向がある。
Indian Buffet Process (IBP) に基づく原則的非パラメトリック手法を提案する。
連続学習ベンチマークにおける本手法の有効性を実証し、トレーニングを通して重み要因の配分と再利用方法を分析する。
論文 参考訳(メタデータ) (2020-04-21T15:20:19Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z) - Relational Neural Machines [19.569025323453257]
本稿では,学習者のパラメータと一階論理に基づく推論を共同で学習するフレームワークを提案する。
ニューラルネットワークは、純粋な準記号学習の場合の古典的な学習結果とマルコフ論理ネットワークの両方を復元することができる。
適切なアルゴリズム解は、大規模な問題において学習と推論が引き出すことができるように考案されている。
論文 参考訳(メタデータ) (2020-02-06T10:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。