論文の概要: Learning Choice Functions via Pareto-Embeddings
- arxiv url: http://arxiv.org/abs/2007.06927v1
- Date: Tue, 14 Jul 2020 09:34:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 14:16:35.270078
- Title: Learning Choice Functions via Pareto-Embeddings
- Title(参考訳): Pareto-Embeddingsによる選択関数の学習
- Authors: Karlson Pfannschmidt, Eyke H\"ullermeier
- Abstract要約: 本稿では,各オブジェクトが特徴ベクトルで表現される対象の集合から選択することの難しさを考察する。
本稿では,この課題に適した識別可能な損失関数を最小化する学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.1410342959104725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of learning to choose from a given set of objects,
where each object is represented by a feature vector. Traditional approaches in
choice modelling are mainly based on learning a latent, real-valued utility
function, thereby inducing a linear order on choice alternatives. While this
approach is suitable for discrete (top-1) choices, it is not straightforward
how to use it for subset choices. Instead of mapping choice alternatives to the
real number line, we propose to embed them into a higher-dimensional utility
space, in which we identify choice sets with Pareto-optimal points. To this
end, we propose a learning algorithm that minimizes a differentiable loss
function suitable for this task. We demonstrate the feasibility of learning a
Pareto-embedding on a suite of benchmark datasets.
- Abstract(参考訳): 本研究では,各オブジェクトが特徴ベクトルで表現される対象の集合から選択することの難しさを考察する。
選択モデリングにおける伝統的なアプローチは、主に潜在、実数値の効用関数の学習に基づいており、選択の代替関数に対して線形順序を誘導する。
このアプローチは離散的な(トップ-1)選択に適しているが、サブセットの選択にどのように使うかは単純ではない。
実数直線の選択肢を写像する代わりに、パレート最適点を持つ選択集合を識別する高次元のユーティリティ空間にそれらを埋め込むことを提案する。
そこで本研究では,このタスクに適した微分可能損失関数を最小化する学習アルゴリズムを提案する。
ベンチマークデータセットのスイート上でPareto-embeddingを学習する可能性を示す。
関連論文リスト
- Approximation of a Pareto Set Segment Using a Linear Model with Sharing Variables [14.161627541155775]
最適性と変数共有を両立させる性能指標を開発した。
次に、ユーザの要求を満たすためのメトリックを最小限に抑えるモデルを見つけるアルゴリズムを設計する。
実験結果から,選好ベクトルから局所領域の解への写像を近似した線形モデルが得られることが示された。
論文 参考訳(メタデータ) (2024-03-30T05:42:07Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Feature Selection Based on Orthogonal Constraints and Polygon Area [10.587608254638667]
特徴選択の目的は、各特徴の重要性を評価することにより、認識タスクにおける特徴の最適なサブセットを選択することである。
本稿では,特徴ラベルを拡張した依存関係間の非単調線形探索を提案する。
実験結果から,本手法は識別依存を効果的にとらえるだけでなく,次元分類性能を低下させる従来の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T08:20:05Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Learning Choice Functions with Gaussian Processes [0.225596179391365]
消費者理論において、利用可能なオブジェクトを選好関係でランク付けすると、個々の選択の最も一般的な記述が得られる。
本稿では,個人が設定値の選択を表現できる選択モデルを提案する。
論文 参考訳(メタデータ) (2023-02-01T12:46:43Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Joint Adaptive Graph and Structured Sparsity Regularization for
Unsupervised Feature Selection [6.41804410246642]
本稿では,共同適応グラフと構造付き空間正規化unsupervised feature selection (JASFS)法を提案する。
最適な機能のサブセットがグループで選択され、選択された機能の数が自動的に決定される。
8つのベンチマーク実験の結果,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2020-10-09T08:17:04Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。