論文の概要: Explainable Preference Learning: a Decision Tree-based Surrogate Model for Preferential Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2512.14263v1
- Date: Tue, 16 Dec 2025 10:17:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.679963
- Title: Explainable Preference Learning: a Decision Tree-based Surrogate Model for Preferential Bayesian Optimization
- Title(参考訳): 説明可能な推論学習: 優先順位ベイズ最適化のための決定木に基づくサロゲートモデル
- Authors: Nick Leenders, Thomas Quadt, Boris Cule, Roy Lindelauf, Herman Monsuur, Joost van Oijen, Mark Voskuijl,
- Abstract要約: 本稿では,カテゴリデータと連続データの両方を扱うことができる,本質的に解釈可能な決定木に基づくサロゲートモデルを提案する。
我々のモデルは、スパイク関数に対するGPベースの代替よりも優れており、非スパイク関数に対してわずかに低い性能しか持たない。
実世界の寿司データセットに適用し、個人の寿司嗜好を学習する能力を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current Preferential Bayesian Optimization methods rely on Gaussian Processes (GPs) as surrogate models. These models are hard to interpret, struggle with handling categorical data, and are computationally complex, limiting their real-world usability. In this paper, we introduce an inherently interpretable decision tree-based surrogate model capable of handling both categorical and continuous data, and scalable to large datasets. Extensive numerical experiments on eight increasingly spiky optimization functions show that our model outperforms GP-based alternatives on spiky functions and has only marginally lower performance for non-spiky functions. Moreover, we apply our model to the real-world Sushi dataset and show its ability to learn an individual's sushi preferences. Finally, we show some initial work on using historical preference data to speed up the optimization process for new unseen users.
- Abstract(参考訳): 現在の優先ベイズ最適化法は、代理モデルとしてガウス過程(GP)に依存している。
これらのモデルは解釈が困難で、分類データを扱うのに苦労しており、計算的に複雑であり、現実のユーザビリティを制限している。
本稿では,分類データと連続データの両方を扱うことができ,大規模データセットにスケーラブルな,本質的に解釈可能な決定木に基づくサロゲートモデルを提案する。
8つのスパイクな最適化関数に対する大規模な数値実験により、我々のモデルは、スパイクな関数に対するGPベースの代替よりも優れ、非スパイクな関数に対してわずかに低い性能しか持たないことが示されている。
さらに,実世界の寿司データセットに適用し,個人の寿司嗜好を学習する能力を示す。
最後に、新しい未確認ユーザの最適化プロセスを高速化するために、履歴的嗜好データを使用するための初期の取り組みを示す。
関連論文リスト
- Generalized Top-k Mallows Model for Ranked Choices [7.389630498367403]
本稿では,トップkのMallowsモデルに適した新しいサンプリングスキームと,選択確率を計算するための効率的なアルゴリズムを提案する。
また,観測された選択データからモデルパラメータを推定する能動的学習アルゴリズムを提案する。
これらの貢献は、重要な意思決定シナリオの分析と予測のための新しいツールを提供する。
論文 参考訳(メタデータ) (2025-10-24T21:49:21Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Bayesian Optimization with Informative Covariance [13.113313427848828]
探索空間の特定の領域の好みを符号化するために,非定常性を利用した新しい情報共分散関数を提案する。
提案した関数は,より弱い事前情報の下でも,ハイ次元でのベイズ最適化のサンプル効率を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-08-04T15:05:11Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Approximate Bayesian Optimisation for Neural Networks [6.921210544516486]
モデル選択の重要性を強調するために、機械学習アルゴリズムを自動化するための一連の作業が行われた。
理想主義的な方法で解析的トラクタビリティと計算可能性を解決する必要性は、効率と適用性を確保することを可能にしている。
論文 参考訳(メタデータ) (2021-08-27T19:03:32Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Monotonic Cardinality Estimation of Similarity Selection: A Deep
Learning Approach [22.958342743597044]
類似度選択の基数推定にディープラーニングを活用する可能性について検討する。
本稿では,任意のデータ型や距離関数に適用可能な,新規で汎用的な手法を提案する。
論文 参考訳(メタデータ) (2020-02-15T20:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。