論文の概要: Exploring the Design Space of Fair Tree Learning Algorithms
- arxiv url: http://arxiv.org/abs/2509.03204v1
- Date: Wed, 03 Sep 2025 10:39:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.48806
- Title: Exploring the Design Space of Fair Tree Learning Algorithms
- Title(参考訳): フェアツリー学習アルゴリズムの設計空間の探索
- Authors: Kiara Stempel, Mattia Cerrato, Stefan Kramer,
- Abstract要約: 決定木は、異なるグループに対する非差別を確保しながら、予測性能を最大化することを目的としている。
本稿では、上記の2つの追加オプションを設計空間から導入し、複数のデータセット上で実験的に特徴付ける。
- 参考スコア(独自算出の注目度): 4.147431995720785
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Decision trees have been studied extensively in the context of fairness, aiming to maximize prediction performance while ensuring non-discrimination against different groups. Techniques in this space usually focus on imposing constraints at training time, constraining the search space so that solutions which display unacceptable values of relevant metrics are not considered, discarded, or discouraged. If we assume one target variable y and one sensitive attribute s, the design space of tree learning algorithms can be spanned as follows: (i) One can have one tree T that is built using an objective function that is a function of y, s, and T. For instance, one can build a tree based on the weighted information gain regarding y (maximizing) and s (minimizing). (ii) The second option is to have one tree model T that uses an objective function in y and T and a constraint on s and T. Here, s is no longer part of the objective, but part of a constraint. This can be achieved greedily by aborting a further split as soon as the condition that optimizes the objective in y fails to satisfy the constraint on s. A simple way to explore other splits is to backtrack during tree construction once a fairness constraint is violated. (iii) The third option is to have two trees T_y and T_s, one for y and one for s, such that the tree structure for y and s does not have to be shared. In this way, information regarding y and regarding s can be used independently, without having to constrain the choices in tree construction by the mutual information between the two variables. Quite surprisingly, of the three options, only the first one and the greedy variant of the second have been studied in the literature so far. In this paper, we introduce the above two additional options from that design space and characterize them experimentally on multiple datasets.
- Abstract(参考訳): 決定木は、異なるグループに対する非差別性を確保しつつ、予測性能を最大化することを目的として、フェアネスの文脈で広範囲に研究されてきた。
この領域のテクニックは通常、トレーニング時に制約を課すことに重点を置いており、検索空間を制約し、関連するメトリクスの許容できない値を示すソリューションが考慮され、破棄され、または無効になるようにしている。
1つの変数 y と 1つの属性 s を仮定すると、ツリー学習アルゴリズムの設計空間は以下のようになる。
i) y, s, T の関数である目的関数を用いて構築される1つのツリー T を持つことができる。例えば、y (最大化) および s (最小化) に関する重み付き情報ゲインに基づいてツリーを構築することができる。
(ii) 第二の選択肢は、y と T の客観的関数と s と T の制約を使用する1つのツリーモデル T を持つことである。
これは、y の目的を最適化する条件が s 上の制約を満たすのに失敗すると、さらに分割を中止することで、厳密に達成できる。
他の分割を探索する簡単な方法は、公正な制約が破られると、ツリー構築中にバックトラックすることです。
(iii)第3の選択肢は、y と s のツリー構造を共有する必要がないように、y のツリー T_y と T_s を2本、y と s のツリー構造を1本持つことである。
このようにして、y に関する情報と s に関する情報は、2つの変数間の相互情報によってツリー構築における選択を制約することなく、独立に使用できる。
3つの選択肢のうち、第1の選択肢と第2のグレディ変種のみが、これまでの文献で研究されている。
本稿では、上記の2つの追加オプションを設計空間から導入し、複数のデータセット上で実験的に特徴付ける。
関連論文リスト
- Exploring space efficiency in a tree-based linear model for extreme multi-label classification [11.18858602369985]
Extreme Multi-label Classification (XMC) は、複数のラベルから関連するサブセットを特定することを目的としている。
XMCの様々なアプローチの中で、ツリーベースの線形モデルは効率と単純さの点で有効である。
本研究では,その空間における理論的および実証的な解析を行い,疎データの仮定の下で木モデルを記憶する。
論文 参考訳(メタデータ) (2024-10-12T15:02:40Z) - Optimal Transport for Measures with Noisy Tree Metric [29.950797721275574]
木メートル空間上での確率測度に対する最適輸送問題について検討する。
一般に、1つの空間でサポートされている測度であっても、このアプローチは計算が難しい。
我々は、ロバスト OT が計量特性を満たすことを示し、負の定値であることを示す。
論文 参考訳(メタデータ) (2023-10-20T16:56:08Z) - Structure-Unified M-Tree Coding Solver for MathWord Problem [57.825176412485504]
従来,数式表現の2次木構造を考慮に入れたモデルでは,性能が向上した。
本稿では、出力構造を統一するために、任意のM枝(M-tree)を持つ木を適用した構造統一M-Tree符号化(S-UMCr)を提案する。
広く使われているMAWPSとMath23Kデータセットの実験結果は、SUMC-rが複数の最先端モデルを上回るだけでなく、低リソース条件下でもはるかに優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2022-10-22T12:20:36Z) - Social Interpretable Tree for Pedestrian Trajectory Prediction [75.81745697967608]
本稿では,このマルチモーダル予測課題に対処するため,SIT(Social Interpretable Tree)と呼ばれる木に基づく手法を提案する。
木の根から葉までの経路は、個々の将来の軌跡を表す。
ETH-UCYとStanford Droneのデータセットによる実験結果からは,手作り木にもかかわらず,我々の手法が最先端の手法の性能に適合または超えることを示した。
論文 参考訳(メタデータ) (2022-05-26T12:18:44Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Rethinking Learnable Tree Filter for Generic Feature Transform [71.77463476808585]
Learnable Tree Filterはセマンティックセグメンテーションのためのモデル構造保存関係に対する顕著なアプローチを示す。
幾何学的制約を緩和するために,マルコフ確率場として再構成して解析を行い,学習可能な不定項を導入する。
セマンティックセグメンテーションでは、ベルとホイッスルなしでCityscapesベンチマークでトップパフォーマンス(82.1% mIoU)を達成しています。
論文 参考訳(メタデータ) (2020-12-07T07:16:47Z) - Please Mind the Root: Decoding Arborescences for Dependency Parsing [67.71280539312536]
我々はUniversal Dependency Treebankから多くの言語における最先端の出力を分析する。
最悪の制約違反率は24%です。
論文 参考訳(メタデータ) (2020-10-06T08:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。