論文の概要: The Tournament Tree Method for preference elicitation in Multi-criteria decision-making
- arxiv url: http://arxiv.org/abs/2510.08197v1
- Date: Thu, 09 Oct 2025 13:24:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.091642
- Title: The Tournament Tree Method for preference elicitation in Multi-criteria decision-making
- Title(参考訳): 多基準意思決定における選好誘導のためのトーナメントツリー手法
- Authors: Diego García-Zamora, Álvaro Labella, José Rui Figueira,
- Abstract要約: トーナメント・ツリー・メソッド(TTM)は、新しい評価フレームワークである。
提案手法は、設計による一貫性を確保し、認知的努力を最小限に抑え、嗜好モデリングの次元性を低下させる。
古典的なデック・オブ・カード法と互換性があり、間隔と比率のスケールを扱える。
- 参考スコア(独自算出の注目度): 8.06855767139412
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pairwise comparison methods, such as Fuzzy Preference Relations and Saaty's Multiplicative Preference Relations, are widely used to model expert judgments in multi-criteria decision-making. However, their application is limited by the high cognitive load required to complete $m(m-1)/2$ comparisons, the risk of inconsistency, and the computational complexity of deriving consistent value scales. This paper proposes the Tournament Tree Method (TTM), a novel elicitation and evaluation framework that overcomes these limitations. The TTM requires only $m-1$ pairwise comparisons to obtain a complete, reciprocal, and consistent comparison matrix. The method consists of three phases: (i) elicitation of expert judgments using a reduced set of targeted comparisons, (ii) construction of the consistent pairwise comparison matrix, and (iii) derivation of a global value scale from the resulting matrix. The proposed approach ensures consistency by design, minimizes cognitive effort, and reduces the dimensionality of preference modeling from $m(m-1)/2$ to $m$ parameters. Furthermore, it is compatible with the classical Deck of Cards method, and thus it can handle interval and ratio scales. We have also developed a web-based tool that demonstrates its practical applicability in real decision-making scenarios.
- Abstract(参考訳): Fuzzy Preference Relations や Saaty's Multiplicative Preference Relations のようなペアワイズ比較法は、多条件意思決定における専門家の判断をモデル化するために広く用いられている。
しかし、それらの応用は、$m(m-1)/2$比較を完了するために必要な高い認知負荷、一貫性のリスク、一貫性のある値スケールを導出する計算複雑性によって制限されている。
本稿では,これらの制約を克服する新しい効用・評価フレームワークであるTournament Tree Method (TTM)を提案する。
TTMは完全で相互で一貫した比較行列を得るためには、ペアワイズ比較が$m-1$だけ必要である。
方法は3つのフェーズから構成される。
一 対象比較の縮小による専門家判定の実施
(二)一貫した対比較行列の構成、及び
三 結果の行列から大域的価値尺度を導出すること。
提案手法は、設計による一貫性を確保し、認知的努力を最小限にし、選好モデリングの次元性を$m(m-1)/2$から$m$パラメータに還元する。
さらに、従来のデック・オブ・カード法と互換性があり、インターバルスケールや比スケールも扱える。
また、実際の意思決定シナリオにおける実用性を示すWebベースのツールも開発しました。
関連論文リスト
- LLM Routing with Dueling Feedback [49.67815163970033]
ユーザの満足度,モデルの専門性,推論コストのバランスを保ちながら,クエリ毎に最適なモデルを選択するという課題について検討する。
絶対的なスコアではなく、ペアの選好フィードバックから学習することで、ルーティングをコンテキストデュエルの帯域として定式化する。
分類的重み付けを用いた対照的な微調整を用いて,オフラインデータからモデル埋め込みを導出する表現学習手法であるカテゴリーキャリブレーション・ファインタニング(CCFT)を導入する。
論文 参考訳(メタデータ) (2025-10-01T12:52:25Z) - Access Paths for Efficient Ordering with Large Language Models [7.826046892571884]
本稿では,LLM ORDER BY演算子を論理抽象として提示し,その物理実装を統一評価フレームワーク内で検討する。
合意に基づくバッチサイズポリシー,ペアソートのための多数投票機構,LLMに適合した双方向の外部マージソートという3つの新しい設計を導入する。
論文 参考訳(メタデータ) (2025-08-30T01:44:36Z) - On Monotonicity in AI Alignment [10.244128221542228]
本稿では、一般比較に基づく選好学習フレームワークにおける(非)単調性の根本原因について検討する。
穏やかな仮定の下では、そのような方法が局所対単調性(英語版)と呼ばれるものを満たすことが証明される。
また,モノトニティの形式化の花束を提供し,その保証に十分な条件を特定し,学習モデルがモノトニティ違反にどのように影響するかを評価するためのツールボックスを提供する。
論文 参考訳(メタデータ) (2025-06-10T17:17:48Z) - Achieving $\widetilde{\mathcal{O}}(\sqrt{T})$ Regret in Average-Reward POMDPs with Known Observation Models [69.1820058966619]
平均逆無限水平POMDPを未知の遷移モデルで扱う。
この障壁を克服する斬新でシンプルな推定器を提示する。
論文 参考訳(メタデータ) (2025-01-30T22:29:41Z) - Regret Minimization and Statistical Inference in Online Decision Making with High-dimensional Covariates [7.21848268647674]
我々は、決定のための$varepsilon$-greedybanditアルゴリズムと、疎帯域パラメータを推定するためのハードしきい値アルゴリズムを統合する。
マージン条件下では、我々の手法は、$O(T1/2)$ regret あるいは古典的な$O(T1/2)$-consistent推論のいずれかを達成する。
論文 参考訳(メタデータ) (2024-11-10T01:47:11Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。