論文の概要: Machine Learning with the Sugeno Integral: The Case of Binary
Classification
- arxiv url: http://arxiv.org/abs/2007.03046v1
- Date: Mon, 6 Jul 2020 20:22:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:53:07.791192
- Title: Machine Learning with the Sugeno Integral: The Case of Binary
Classification
- Title(参考訳): Sugeno Integral を用いた機械学習:バイナリ分類の場合
- Authors: Sadegh Abbaszadeh and Eyke H\"ullermeier
- Abstract要約: 機械学習の文脈におけるSugeno積分の使用について詳述する。
本稿では,スゲノ積分をアグリゲーション関数として用いる二項分類法を提案する。
スジェノ積分の特異性のため、このアプローチは特に順序データから学ぶのに適している。
- 参考スコア(独自算出の注目度): 5.806154304561782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we elaborate on the use of the Sugeno integral in the context
of machine learning. More specifically, we propose a method for binary
classification, in which the Sugeno integral is used as an aggregation function
that combines several local evaluations of an instance, pertaining to different
features or measurements, into a single global evaluation. Due to the specific
nature of the Sugeno integral, this approach is especially suitable for
learning from ordinal data, that is, when measurements are taken from ordinal
scales. This is a topic that has not received much attention in machine
learning so far. The core of the learning problem itself consists of
identifying the capacity underlying the Sugeno integral. To tackle this
problem, we develop an algorithm based on linear programming. The algorithm
also includes a suitable technique for transforming the original feature values
into local evaluations (local utility scores), as well as a method for tuning a
threshold on the global evaluation. To control the flexibility of the
classifier and mitigate the problem of overfitting the training data, we
generalize our approach toward $k$-maxitive capacities, where $k$ plays the
role of a hyper-parameter of the learner. We present experimental studies, in
which we compare our method with competing approaches on several benchmark data
sets.
- Abstract(参考訳): 本稿では,機械学習の文脈におけるsugeno積分の利用について詳述する。
具体的には,Sugeno積分を,異なる特徴や測定値を含む複数のインスタンスの局所的な評価をひとつのグローバルな評価に組み合わせたアグリゲーション関数として用いるバイナリ分類法を提案する。
スジェノ積分の特異性のため、この手法は特に順序データから、すなわち、順序尺度から測定されるときの学習に適している。
このトピックは、これまで機械学習にはあまり関心が寄せられていない。
学習問題の核心は、sugeno積分の基盤となる能力を特定することにある。
この問題に対処するため,線形プログラミングに基づくアルゴリズムを開発した。
このアルゴリズムはまた、元の特徴値を局所的な評価(局所的ユーティリティスコア)に変換する適切な手法と、グローバル評価のしきい値を調整する方法を含む。
分類器の柔軟性を制御し、トレーニングデータのオーバーフィットの問題を緩和するために、我々は、$k$-maxitive capacitiesへのアプローチを一般化し、ここでは$k$が学習者のハイパーパラメータの役割を担います。
そこで,本手法をいくつかのベンチマークデータセットの競合手法と比較する実験を行った。
関連論文リスト
- A naive aggregation algorithm for improving generalization in a class of learning problems [0.0]
本稿では,エキスパート・アドバイス・セッティングを用いた一般的な学習問題に対するナイーブ・アグリゲーション・アルゴリズムを提案する。
特に,高次元非線形関数をモデル化するための点推定の学習問題について考察する。
論文 参考訳(メタデータ) (2024-09-06T15:34:17Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison [0.6299766708197883]
広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
本稿では,FedDistと呼ばれる新しいアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-19T19:43:28Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Feature space approximation for kernel-based supervised learning [2.653409741248232]
目標は、トレーニングデータのサイズを減らし、ストレージ消費と計算の複雑さを減らすことだ。
完全トレーニングデータセットを含むデータ駆動予測の計算と比較して,大幅な改善が示された。
本手法は, 画像認識, システム識別, 海洋時系列解析などの異なる応用領域の分類と回帰問題に適用する。
論文 参考訳(メタデータ) (2020-11-25T11:23:58Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - Linear Classifier Combination via Multiple Potential Functions [0.6091702876917279]
決定境界からクラスセントロイドまでの距離との距離に基づいてスコアリング関数を計算する新しい概念を提案する。
重要な性質は、提案されたスコア関数がすべての線形基底分類器に対して同じ性質を持つことである。
論文 参考訳(メタデータ) (2020-10-02T08:11:51Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z) - On the Estimation of Complex Circuits Functional Failure Rate by Machine
Learning Techniques [0.16311150636417257]
デレーティング(De-Rating)あるいは脆弱性要因(Vulnerability Factors)は、今日の機能的安全要件によって管理される障害分析の最大の特徴である。
機械学習を用いて個々のフリップフロップの関数的デレートを推定する新しい手法が提案されている。
論文 参考訳(メタデータ) (2020-02-18T15:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。