論文の概要: Fuzzy k-Nearest Neighbors with monotonicity constraints: Moving towards
the robustness of monotonic noise
- arxiv url: http://arxiv.org/abs/2003.02601v1
- Date: Thu, 5 Mar 2020 13:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:33:20.165306
- Title: Fuzzy k-Nearest Neighbors with monotonicity constraints: Moving towards
the robustness of monotonic noise
- Title(参考訳): 単調性制約のあるファジィk-Nearest近傍:単調騒音の頑健性へ向けて
- Authors: Sergio Gonz\'alez, Salvador Garc\'ia, Sheng-Tun Li, Robert John,
Francisco Herrera
- Abstract要約: 本稿では,モノトニック制約を用いた新しい分類モデルであるMonotonic Fuzzy k-NN(MonFkNN)を提案する。
MonFkNNはファジィメンバシップの新たな計算を取り入れており、レバーベリングを必要とせずにモノトニックノイズに対するロバスト性を高める。
- 参考スコア(独自算出の注目度): 10.177219272933781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a new model based on Fuzzy k-Nearest Neighbors for
classification with monotonic constraints, Monotonic Fuzzy k-NN (MonFkNN).
Real-life data-sets often do not comply with monotonic constraints due to class
noise. MonFkNN incorporates a new calculation of fuzzy memberships, which
increases robustness against monotonic noise without the need for relabeling.
Our proposal has been designed to be adaptable to the different needs of the
problem being tackled. In several experimental studies, we show significant
improvements in accuracy while matching the best degree of monotonicity
obtained by comparable methods. We also show that MonFkNN empirically achieves
improved performance compared with Monotonic k-NN in the presence of large
amounts of class noise.
- Abstract(参考訳): 本稿では,モノトニック制約付き分類のためのファジィk-Nearest Neighborsに基づく新しいモデル,MonFkNNを提案する。
実世界のデータセットは、クラスノイズによる単調な制約に従わないことが多い。
MonFkNNはファジィメンバシップの新たな計算を取り入れており、レバーベリングを必要とせずにモノトニックノイズに対する堅牢性を高める。
私たちの提案は、取り組まれている問題の異なるニーズに適応するように設計されています。
いくつかの実験的研究において、比較法により得られた最良の単調性に適合しながら精度を著しく改善した。
また,MonFkNNはモノトニックk-NNと比較して,大量のクラスノイズの存在下で性能を実証的に向上することを示す。
関連論文リスト
- Benign Overfitting in Single-Head Attention [27.297696573634976]
本研究では,トランスフォーマーの基本構造である単一頭部ソフトマックスアテンションモデルにおける良性オーバーフィッティングについて検討する。
適切な条件下では、勾配降下の2段階の後に既に分類された設定において、モデルが良性過剰適合を示すことが証明される。
論文 参考訳(メタデータ) (2024-10-10T09:23:33Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - On Robust Learning from Noisy Labels: A Permutation Layer Approach [53.798757734297986]
本稿では、深層ニューラルネットワーク(DNN)のトレーニング過程を動的に校正するPermLLと呼ばれる置換層学習手法を提案する。
本稿では,PermLLの2つの変種について述べる。一方はモデルの予測に置換層を適用し,他方は与えられた雑音ラベルに直接適用する。
我々はPermLLを実験的に検証し、実際のデータセットと合成データセットの両方で最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2022-11-29T03:01:48Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Clipped Stochastic Methods for Variational Inequalities with
Heavy-Tailed Noise [64.85879194013407]
単調なVIPと非単調なVIPの解法における信頼度に対数的依存を持つ最初の高確率結果が証明された。
この結果は光尾の場合で最もよく知られたものと一致し,非単調な構造問題に新鮮である。
さらに,多くの実用的な定式化の勾配雑音が重く,クリッピングによりSEG/SGDAの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-02T15:21:55Z) - Stochastic Aggregation in Graph Neural Networks [9.551282469099887]
グラフニューラルネットワーク(GNN)は、過スムージングおよび限られた電力識別を含む病理を発現する。
GNNsにおける集約のための統合フレームワーク(STAG)を提案する。そこでは、近隣からの集約プロセスにノイズが(適応的に)注入され、ノード埋め込みを形成する。
論文 参考訳(メタデータ) (2021-02-25T02:52:03Z) - Noisy Recurrent Neural Networks [45.94390701863504]
入力データによって駆動される微分方程式の離散化として,隠れ状態に雑音を注入することによって訓練されたリカレントニューラルネットワーク(RNN)について検討する。
合理的な仮定の下では、この暗黙の正則化はより平坦なミニマムを促進し、より安定な力学を持つモデルに偏りを呈し、分類タスクではより大きな分類マージンを持つモデルを好む。
本理論は, 各種入力摂動に対するロバスト性の向上と, 最先端性能の維持を両立させる実証実験により支持された。
論文 参考訳(メタデータ) (2021-02-09T15:20:50Z) - Robust Learning under Strong Noise via SQs [5.9256596453465225]
各SQ学習可能なクラスは、幅広いノイズモデルに対して、OPT + $epsilon Misilon誤分類誤差を持つ効率的な学習アルゴリズムを許容することを示す。
この設定は、既知の雑音確率を持つRCNの下で広く研究されている問題分類を大幅に一般化する。
論文 参考訳(メタデータ) (2020-10-18T21:02:26Z) - Monotone operator equilibrium networks [97.86610752856987]
我々はモノトン作用素の理論に基づく新しい暗黙深度モデル、モノトン演算子平衡ネットワーク(monDEQ)を開発した。
暗黙的ネットワークの平衡点の発見と単調作用素分割問題の解法との密接な関係を示す。
次に、ネットワークのパラメータ化を開発し、全ての作用素が単調であり続けることを保証し、ユニークな平衡点の存在を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:57:31Z) - Exact Hard Monotonic Attention for Character-Level Transduction [76.66797368985453]
非単調なソフトアテンションを用いたニューラルシークエンス・ツー・シーケンスモデルは、しばしば一般的な単調モデルよりも優れていることを示す。
我々は、厳密な単調性を強制し、トランスデューサの学習中に協調して潜時アライメントを学習するハードアテンションシーケンス・ツー・シーケンス・モデルを開発した。
論文 参考訳(メタデータ) (2019-05-15T17:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。