論文の概要: End-to-End Neural Network Training for Hyperbox-Based Classification
- arxiv url: http://arxiv.org/abs/2307.09269v2
- Date: Tue, 1 Aug 2023 13:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 17:09:45.197934
- Title: End-to-End Neural Network Training for Hyperbox-Based Classification
- Title(参考訳): ハイパーボックスに基づく分類のためのエンドツーエンドニューラルネットワークトレーニング
- Authors: Denis Mayr Lima Martins and Christian L\"ulf and Fabian Gieseke
- Abstract要約: ニューラルネットワークによるハイパーボックスに基づく分類のための,新しい,完全に差別化可能なフレームワークを提案する。
従来の研究とは対照的に、我々のハイパーボックスモデルはエンドツーエンドで効率的にトレーニングすることができ、トレーニング時間が大幅に短縮され、より優れた分類結果が得られる。
- 参考スコア(独自算出の注目度): 1.701639753123439
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hyperbox-based classification has been seen as a promising technique in which
decisions on the data are represented as a series of orthogonal,
multidimensional boxes (i.e., hyperboxes) that are often interpretable and
human-readable. However, existing methods are no longer capable of efficiently
handling the increasing volume of data many application domains face nowadays.
We address this gap by proposing a novel, fully differentiable framework for
hyperbox-based classification via neural networks. In contrast to previous
work, our hyperbox models can be efficiently trained in an end-to-end fashion,
which leads to significantly reduced training times and superior classification
results.
- Abstract(参考訳): ハイパーボックスに基づく分類は、データの決定を直交する多次元ボックス(すなわちハイパーボックス)の連続として表現し、しばしば解釈可能であり、人間が読める有望な技術と見なされている。
しかし、既存のメソッドは、今や多くのアプリケーションドメインが直面するデータ量の増加を効率的に処理できない。
このギャップに対処するために、ニューラルネットワークを介してハイパーボックスベースの分類のための、新しい、完全に差別化可能なフレームワークを提案する。
従来の研究とは対照的に、我々のハイパーボックスモデルはエンドツーエンドで効率的にトレーニングすることができ、トレーニング時間が大幅に短縮され、より優れた分類結果が得られる。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - MISS: Multiclass Interpretable Scoring Systems [13.902264070785986]
MISS(Multiclass Interpretable Scoring Systems)構築のための機械学習手法を提案する。
MISSは、シングルクラス、スパース、ユーザフレンドリーなスコアリングシステムのための、完全なデータ駆動の方法論である。
結果から,本手法は他の機械学習モデルと性能指標の分類において競合し,高い校正率のクラス確率が得られたことが示唆された。
論文 参考訳(メタデータ) (2024-01-10T10:57:12Z) - Neural Architecture for Online Ensemble Continual Learning [6.241435193861262]
我々は、エンドツーエンドのニューラルネットワークのアンサンブルを効率的に訓練できる、完全に微分可能なアンサンブル法を提案する。
提案手法は,メモリバッファを使わずにSOTA結果が得られ,参照手法よりも明らかに優れている。
論文 参考訳(メタデータ) (2022-11-27T23:17:08Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - All at Once Network Quantization via Collaborative Knowledge Transfer [56.95849086170461]
オールオンス量子化ネットワークを効率的にトレーニングするための新しい共同知識伝達アプローチを開発しています。
具体的には、低精度の学生に知識を伝達するための高精度のエンクォータを選択するための適応的選択戦略を提案する。
知識を効果的に伝達するために,低精度の学生ネットワークのブロックを高精度の教師ネットワークのブロックにランダムに置き換える動的ブロックスワッピング法を開発した。
論文 参考訳(メタデータ) (2021-03-02T03:09:03Z) - An analytic theory of shallow networks dynamics for hinge loss
classification [14.323962459195771]
我々は、単純なタイプのニューラルネットワーク(分類タスクを実行するために訓練された単一の隠れ層)のトレーニングダイナミクスについて研究する。
我々はこの理論を線形分離可能なデータセットと線形ヒンジ損失のプロトタイプケースに特化する。
これにより、トレーニングダイナミクスの減速、リッチラーニングと遅延ラーニングのクロスオーバー、オーバーフィッティングといった、現代のネットワークに現れるいくつかの現象に対処することが可能になります。
論文 参考訳(メタデータ) (2020-06-19T16:25:29Z) - Fine-Grain Few-Shot Vision via Domain Knowledge as Hyperspherical Priors [79.22051549519989]
プロトタイプネットワークは、コンピュータビジョンにおいて、数ショットの学習タスクでうまく機能することが示されている。
ドメイン知識を情報的先行要素として取り入れつつ,クラスを最大限に分離することで,数発の微粒化を実現する方法を示す。
論文 参考訳(メタデータ) (2020-05-23T02:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。