論文の概要: Practical Boolean Backpropagation
- arxiv url: http://arxiv.org/abs/2505.03791v1
- Date: Thu, 01 May 2025 12:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.810449
- Title: Practical Boolean Backpropagation
- Title(参考訳): 実践的ブールバックプロパゲーション
- Authors: Simon Golbert,
- Abstract要約: 我々は、我々が選択した1つの特定のゲートに基づいて、純粋にブールバックプロパゲーションを行う実用的な方法を提案する。
最初の実験で実現可能性が確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Boolean neural networks offer hardware-efficient alternatives to real-valued models. While quantization is common, purely Boolean training remains underexplored. We present a practical method for purely Boolean backpropagation for networks based on a single specific gate we chose, operating directly in Boolean algebra involving no numerics. Initial experiments confirm its feasibility.
- Abstract(参考訳): ブールニューラルネットワークは、実数値モデルに対するハードウェア効率の良い代替手段を提供する。
量子化は一般的であるが、純粋にブールトレーニングは未熟である。
我々は、我々が選択した1つの特定のゲートに基づいてネットワークに対して純粋にブールバックプロパゲーションを行う実践的な方法を提案し、数値を含まないブール代数で直接操作する。
最初の実験で実現可能性が確認された。
関連論文リスト
- Boolean Logic as an Error feedback mechanism [0.5439020425819]
ブール論理のバックパゲーションの概念は、重みとアクティベーションがブール数であるニューラルネットワークを構築するために導入された。
ほとんどの計算は、訓練とフェーズの間、実際の算術ではなく論理で行うことができる。
論文 参考訳(メタデータ) (2024-01-29T18:56:21Z) - Boolean Variation and Boolean Logic BackPropagation [0.0]
変動の概念はブール集合に導入され、ブール論理のバックプロパゲーション原理が開発された。
ディープモデルは重みとアクティベーションをブール数として構築でき、実算術の代わりにブール論理で操作できる。
論文 参考訳(メタデータ) (2023-11-13T16:01:43Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Identifying nonclassicality from experimental data using artificial
neural networks [52.77024349608834]
ニューラルネットワークをトレーニングして、古典的および非古典的状態とを、その二次的測定分布から分類する。
光の状態の異なる実実験的な二次データから古典的特徴や非古典的特徴を正確に識別できることを示す。
論文 参考訳(メタデータ) (2021-01-18T15:12:47Z) - Tunable Quantum Neural Networks for Boolean Functions [0.0]
ブール関数を学習するためにゲートを調整できる汎用量子回路のアイデアを導入する。
学習課題を実行するために,測定の欠如を利用したアルゴリズムを考案した。
論文 参考訳(メタデータ) (2020-03-31T11:55:01Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。