論文の概要: Copula Representations and Error Surface Projections for the Exclusive
Or Problem
- arxiv url: http://arxiv.org/abs/1907.04483v2
- Date: Thu, 7 Sep 2023 15:51:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 18:35:20.077031
- Title: Copula Representations and Error Surface Projections for the Exclusive
Or Problem
- Title(参考訳): 排他的オー問題に対するコピュラ表現と誤差曲面投影
- Authors: Roy S. Freedman
- Abstract要約: 排他的あるいは(xor)関数は、なぜ非線形フィードフォワードネットワークが機械学習アプリケーションにおいて線形回帰よりも優れているのかを示す最も単純な例の1つである。
本稿では、xor表現と近似問題を概観し、確率論的論理と連想的コプラ関数の観点からそれらの解について議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exclusive or (xor) function is one of the simplest examples that
illustrate why nonlinear feedforward networks are superior to linear regression
for machine learning applications. We review the xor representation and
approximation problems and discuss their solutions in terms of probabilistic
logic and associative copula functions. After briefly reviewing the
specification of feedforward networks, we compare the dynamics of learned error
surfaces with different activation functions such as RELU and tanh through a
set of colorful three-dimensional charts. The copula representations extend xor
from Boolean to real values, thereby providing a convenient way to demonstrate
the concept of cross-validation on in-sample and out-sample data sets. Our
approach is pedagogical and is meant to be a machine learning prolegomenon.
- Abstract(参考訳): 排他的あるいは(xor)関数は、機械学習アプリケーションにおいて、非線形フィードフォワードネットワークが線形回帰よりも優れている理由を示す最も単純な例の1つである。
本稿では,xor表現と近似問題を概観し,それらの解を確率論理と連想コプラ関数の観点から論じる。
フィードフォワードネットワークの仕様を概観した後、学習した誤差曲面のダイナミクスとRELUやTanhといった異なるアクティベーション関数を、カラフルな3次元チャートを通じて比較する。
copula表現はxorをbooleanからreal値に拡張し、in-sampleとout-sampleデータセットのクロスバリデーションの概念を示す便利な方法を提供する。
私たちのアプローチは教育的であり、機械学習のプロレゴメノンを目指しています。
関連論文リスト
- PROSE: Predicting Operators and Symbolic Expressions using Multimodal
Transformers [5.263113622394007]
我々は微分方程式を予測するための新しいニューラルネットワークフレームワークを開発する。
変換器構造と特徴融合手法を用いることで,様々なパラメトリック微分方程式に対する解演算子の集合を同時に埋め込むことができる。
ネットワークはデータのノイズやシンボル表現のエラーを処理でき、ノイズの多い数値、モデルの不特定性、誤った追加や用語の削除などが含まれる。
論文 参考訳(メタデータ) (2023-09-28T19:46:07Z) - Discovering interpretable elastoplasticity models via the neural
polynomial method enabled symbolic regressions [0.0]
従来のニューラルネットワークの弾塑性モデルは、しばしば解釈可能性に欠けると見なされる。
本稿では,人間専門家が解釈可能な数学的モデルを返す2段階の機械学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T22:22:32Z) - Transformer for Partial Differential Equations' Operator Learning [0.0]
演算子変換器(OFormer)と呼ばれるデータ駆動型演算子学習のための注意ベースのフレームワークを提案する。
我々のフレームワークは、自己注意、クロスアテンション、および一組のポイントワイド多層パーセプトロン(MLP)に基づいて構築されている。
論文 参考訳(メタデータ) (2022-05-26T23:17:53Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Fair Interpretable Learning via Correction Vectors [68.29997072804537]
我々は「補正ベクトル」の学習を中心とした公正表現学習のための新しい枠組みを提案する。
修正は単純に元の特徴にまとめられるので、各特徴に対して明確なペナルティやボーナスとして分析することができる。
このような方法で制約された公平な表現学習問題が性能に影響を与えないことを実験的に示す。
論文 参考訳(メタデータ) (2022-01-17T10:59:33Z) - xRAI: Explainable Representations through AI [10.345196226375455]
本稿では,ニューラルネットワークがトレーニングしたネットワークから学習すべき数学的関数の記号表現を抽出する手法を提案する。
このアプローチは、訓練されたネットワークの重みとバイアスを入力として受信し、ネットワークが直接シンボリック表現に変換できる学習すべき関数の数値表現を出力する、いわゆる解釈ネットワークを訓練するというアイデアに基づいています。
論文 参考訳(メタデータ) (2020-12-10T22:49:29Z) - Reward Propagation Using Graph Convolutional Networks [61.32891095232801]
本稿では,グラフ表現学習のアイデアを活用した潜在機能学習フレームワークを提案する。
我々のアプローチは、強化学習の確率論的推論と組み合わせて、重要な要素として使用するグラフ畳み込みネットワークに依存している。
論文 参考訳(メタデータ) (2020-10-06T04:38:16Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。