論文の概要: Evaluation of Multi- and Single-objective Learning Algorithms for Imbalanced Data
- arxiv url: http://arxiv.org/abs/2511.12191v1
- Date: Sat, 15 Nov 2025 12:54:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.663536
- Title: Evaluation of Multi- and Single-objective Learning Algorithms for Imbalanced Data
- Title(参考訳): 不均衡データに対する多目的・単目的学習アルゴリズムの評価
- Authors: Szymon Wojciechowski, Michał Woźniak,
- Abstract要約: 機械学習タスクは、単体ではなく、しばしば反対する一連の基準のためにうまく機能するモデルを見つけることを目的としている。
1つの解決策は、集合的学習基準を提案し、多目的学習課題を単一基準最適化問題に還元することである。
本稿では,単一解を返す手法を用いた多目的アルゴリズムに基づく,新しい信頼性の高いアルゴリズム評価手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many machine learning tasks aim to find models that work well not for a single, but for a group of criteria, often opposing ones. One such example is imbalanced data classification, where, on the one hand, we want to achieve the best possible classification quality for data from the minority class without degrading the classification quality of the majority class. One solution is to propose an aggregate learning criterion and reduce the multi-objective learning task to a single-criteria optimization problem. Unfortunately, such an approach is characterized by ambiguity of interpretation since the value of the aggregated criterion does not indicate the value of the component criteria. Hence, there are more and more proposals for algorithms based on multi-objective optimization (MOO), which can simultaneously optimize multiple criteria. However, such an approach results in a set of multiple non-dominated solutions (Pareto front). The selection of a single solution from the Pareto front is a challenge itself, and much attention is paid to the issue of how to select it considering user preferences, as well as how to compare solutions returned by different MOO algorithms among themselves. Thus, a significant gap has been identified in the classifier evaluation methodology, i.e., how to reliably compare methods returning single solutions with algorithms returning solutions in the form of Pareto fronts. To fill the aforementioned gap, this article proposes a new, reliable way of evaluating algorithms based on multi-objective algorithms with methods that return single solutions while pointing out solutions from a Pareto front tailored to the user's preferences. This work focuses only on algorithm comparison, not their learning. The algorithms selected for this study are illustrative to help understand the proposed approach.
- Abstract(参考訳): 多くの機械学習タスクは、単体ではなく、しばしば反対する一連の基準のためにうまく機能するモデルを見つけることを目的としている。
このような例の1つは、不均衡なデータ分類であり、一方、マイノリティクラスのデータに対して、多数派クラスの分類品質を劣化させることなく、可能な限り最高の分類品質を達成したいと考えています。
1つの解決策は、集合的学習基準を提案し、多目的学習課題を単一基準最適化問題に還元することである。
残念ながら、このようなアプローチは、集約された基準値がコンポーネントの基準値を示していないため、解釈の曖昧さによって特徴づけられる。
したがって、複数の基準を同時に最適化できる多目的最適化(MOO)に基づくアルゴリズムの提案がますます増えている。
しかし、そのようなアプローチは複数の非支配解(パレートフロント)の集合をもたらす。
Paretoのフロントから1つのソリューションを選択することはチャレンジであり、ユーザー好みを考慮してどのように選択するかという問題や、異なるMOOアルゴリズムによって返されるソリューションを比較する方法に多くの注意が払われている。
このように、分類器評価手法、すなわち、単一の解を返す方法とアルゴリズムを返す方法とをパレートフロントの形で確実に比較する方法において、大きなギャップが特定されている。
上記のギャップを埋めるために,本論文では,ユーザの好みに合わせたParetoフロントからのソリューションを指摘しながら,単一解を返す手法を用いて,多目的アルゴリズムに基づくアルゴリズムの評価を行う,新しい信頼性の高い手法を提案する。
この研究は、学習ではなく、アルゴリズムの比較にのみ焦点をあてている。
この研究で選択されたアルゴリズムは、提案されたアプローチを理解するのに役立つ。
関連論文リスト
- A Review on Single-Problem Multi-Attempt Heuristic Optimization [6.778082328635129]
ある現実世界の最適化シナリオでは、実践者は複数の問題を解決することに関心がなく、単一の特定の問題に対する最良の解決策を見つけることに興味があります。
計算予算が候補解を評価するコストに対して大きい場合、同じ問題を解くために複数の選択肢を試すことができる。
次に試す選択肢のシーケンシャルな選択は、最良のソリューションを提供する選択肢を効率的に特定するために不可欠です。
論文 参考訳(メタデータ) (2025-09-30T14:28:28Z) - It's My Data Too: Private ML for Datasets with Multi-User Training Examples [9.18252846535411]
まず、マルチ属性モデルに基づいて、ユーザレベルのDPを慎重に定義する。
コントリビューションバウンディング問題に対するグリーディベースラインアルゴリズムを提案する。
異なる手法と基準を用いて選択したサブセットを最適化するベースラインアルゴリズムの変種について検討する。
論文 参考訳(メタデータ) (2025-03-05T16:02:09Z) - Towards Fast Algorithms for the Preference Consistency Problem Based on Hierarchical Models [4.007697401483925]
階層モデルに基づく選好文の一貫性問題の解法として,アルゴリズム的手法を構築し,比較する。
インスタンスが一貫すると、評価関数に階層的モデルが存在し、代替関数の順序関係を誘導する。
この問題を解決するための3つのアプローチを開発する。
論文 参考訳(メタデータ) (2024-10-31T13:48:46Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Training Greedy Policy for Proposal Batch Selection in Expensive Multi-Objective Combinatorial Optimization [52.80408805368928]
本稿では,バッチ取得のための新しいグリーディ型サブセット選択アルゴリズムを提案する。
赤蛍光タンパク質に関する実験により,提案手法は1.69倍少ないクエリでベースライン性能を達成できることが判明した。
論文 参考訳(メタデータ) (2024-06-21T05:57:08Z) - Algorithm Selection on a Meta Level [58.720142291102135]
本稿では,与えられたアルゴリズムセレクタの組み合わせに最適な方法を求めるメタアルゴリズム選択の問題を紹介する。
本稿では,メタアルゴリズム選択のための一般的な方法論フレームワークと,このフレームワークのインスタンス化として具体的な学習手法を提案する。
論文 参考訳(メタデータ) (2021-07-20T11:23:21Z) - Learning to Select Base Classes for Few-shot Classification [96.92372639495551]
我々は、数ショットモデルの一般化性能を示す指標として、類似度比を用いる。
次に、類似度比に対する部分モジュラー最適化問題として基底クラス選択問題を定式化する。
論文 参考訳(メタデータ) (2020-04-01T09:55:18Z) - Extreme Algorithm Selection With Dyadic Feature Representation [78.13985819417974]
我々は,数千の候補アルゴリズムの固定セットを考慮に入れた,極端なアルゴリズム選択(XAS)の設定を提案する。
我々は、XAS設定に対する最先端のAS技術の適用性を評価し、Dyadic特徴表現を利用したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-29T09:40:58Z) - Optimal Clustering from Noisy Binary Feedback [75.17453757892152]
本稿では,二元的ユーザフィードバックから一組のアイテムをクラスタリングする問題について検討する。
最小クラスタ回復誤差率のアルゴリズムを考案する。
適応選択のために,情報理論的誤差下界の導出にインスパイアされたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2019-10-14T09:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。