論文の概要: Electre Tree A Machine Learning Approach to Infer Electre Tri B
Parameters
- arxiv url: http://arxiv.org/abs/2007.10047v1
- Date: Mon, 20 Jul 2020 12:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 12:47:24.292026
- Title: Electre Tree A Machine Learning Approach to Infer Electre Tri B
Parameters
- Title(参考訳): electre tree : electre tri bパラメータを推論する機械学習アプローチ
- Authors: Gabriela Montenegro de Barros (Federal Fluminense University) and
Valdecy Pereira (Federal Fluminense University)
- Abstract要約: 本稿では,ELECTRE Tri-Bパラメータのすべての(あるいは任意の組み合わせを推論するアルゴリズムを提案する。
私たちのアプローチは、機械学習のアンサンブルテクニックであるランダムフォレストにインスパイアされています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: This paper presents an algorithm that can elicitate (infer) all or
any combination of ELECTRE Tri-B parameters. For example, a decision-maker can
maintain the values for indifference, preference, and veto thresholds, and our
algorithm can find the criteria weights, reference profiles, and the lambda
cutting level. Our approach is inspired by a Machine Learning ensemble
technique, the Random Forest, and for that, we named our approach as ELECTRE
Tree algorithm. Methodology: First, we generate a set of ELECTRE Tri-B models,
where each model solves a random sample of criteria and alternatives. Each
sample is made with replacement, having at least two criteria and between 10%
to 25% of alternatives. Each model has its parameters optimized by a genetic
algorithm that can use an ordered cluster or an assignment example as a
reference to the optimization. Finally, after the optimization phase, two
procedures can be performed, the first one will merge all models, finding in
this way the elicitated parameters, and in the second procedure each
alternative is classified (voted) by each separated model, and the majority
vote decides the final class. Findings: We have noted that concerning the
voting procedure, non-linear decision boundaries are generated, and they can be
suitable in analyzing problems with the same nature. In contrast, the merged
model generates linear decision boundaries. Originality: The elicitation of
ELECTRE Tri-B parameters is made by an ensemble technique that is composed of a
set of multicriteria models that are engaged in generating robust solutions.
- Abstract(参考訳): 目的: 本論文では, ELECTRE Tri-Bパラメータの任意の組み合わせを(推論する)アルゴリズムを提案する。
例えば、意思決定者は、無関心、嗜好、vetoしきい値の値を維持することができ、我々のアルゴリズムは、基準重み、参照プロファイル、ラムダカットレベルを見つけることができる。
我々のアプローチは、機械学習アンサンブル技術であるランダムフォレストにインスパイアされ、そのために、我々のアプローチをELECTRE Treeアルゴリズムと名付けた。
方法論: まずELECTRE Tri-Bモデルを生成し,各モデルが基準と代替品のランダムなサンプルを解く。
各サンプルは少なくとも2つの基準を持ち、代替品の10%から25%が代替品である。
各モデルは、そのパラメータを遺伝的アルゴリズムによって最適化し、順序付けられたクラスタまたは最適化への参照として割り当ての例を使用できる。
最後に、最適化フェーズの後に、2つの手順を実行し、最初の1つは全てのモデルをマージし、この方法でエリシットパラメータを見つけ、2番目の手順では各選択肢を分離したモデルによって分類(投票)し、多数決が最終クラスを決定する。
発見: 投票手続きに関して, 非線形決定境界が生成され, 同一の性質の問題を解析するのに適している点に留意した。
対照的に、合併モデルは線形決定境界を生成する。
オリジナル性: ELECTRE Tri-Bパラメータの帰納は、ロバストな解の生成に携わる複数の基準モデルからなるアンサンブル手法によってなされる。
関連論文リスト
- An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - RIGA: A Regret-Based Interactive Genetic Algorithm [14.388696798649658]
そこで本研究では,多目的最適化問題を優先的精度で解くための対話型遺伝的アルゴリズムを提案する。
我々のアルゴリズムはRIGAと呼ばれ、集約関数がパラメータ内で線形であることから、任意の多目的最適化問題に適用できる。
いくつかのパフォーマンス指標(計算時間、最適性とクエリ数のギャップ)に対して、RIGAは最先端のアルゴリズムよりも優れた結果を得る。
論文 参考訳(メタデータ) (2023-11-10T13:56:15Z) - Sharp Variance-Dependent Bounds in Reinforcement Learning: Best of Both
Worlds in Stochastic and Deterministic Environments [48.96971760679639]
マルコフ決定過程(MDP)の分散依存的後悔境界について検討する。
環境の微細な分散特性を特徴付けるための2つの新しい環境規範を提案する。
モデルに基づく手法では、MVPアルゴリズムの変種を設計する。
特に、この境界は極小かつ決定論的 MDP に対して同時に最適である。
論文 参考訳(メタデータ) (2023-01-31T06:54:06Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Which is the best model for my data? [0.0]
提案されたメタ学習アプローチは、機械学習に依存し、4つの主要なステップを含む。
本稿では,正と負の測度を含む集約測度値において,情報消去の問題に対処する62のメタ特徴の集合について述べる。
我々のメタ学習アプローチは、合成データセットの91%と実世界のデータセットの87%に対して、最適なモデルを正確に予測できることを示します。
論文 参考訳(メタデータ) (2022-10-26T13:15:43Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Optimizing model-agnostic Random Subspace ensembles [5.680512932725364]
教師あり学習のためのモデルに依存しないアンサンブルアプローチを提案する。
提案手法は、ランダム部分空間アプローチのパラメトリックバージョンを用いてモデルのアンサンブルを学習することとを交互に行う。
シミュレーションおよび実世界のデータセット上で,予測と特徴ランキングの両面で,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-07T13:58:23Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - Feature Selection Methods for Cost-Constrained Classification in Random
Forests [3.4806267677524896]
コストに敏感な特徴選択は、機能選択の問題であり、モデルに含めるための個々のコストを上昇させる。
ランダムフォレスト(Random Forests)は、機能選択において特に困難な問題を定義している。
小木構造から特徴を選択する新しい高速多変量特徴選択法であるShallow Tree Selectionを提案する。
論文 参考訳(メタデータ) (2020-08-14T11:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。