論文の概要: GPT-HTree: A Decision Tree Framework Integrating Hierarchical Clustering and Large Language Models for Explainable Classification
- arxiv url: http://arxiv.org/abs/2501.13743v1
- Date: Thu, 23 Jan 2025 15:18:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 19:17:07.314182
- Title: GPT-HTree: A Decision Tree Framework Integrating Hierarchical Clustering and Large Language Models for Explainable Classification
- Title(参考訳): GPT-HTree: 説明可能な分類のための階層的クラスタリングと大規模言語モデルを統合する決定木フレームワーク
- Authors: Te Pei, Fuat Alican, Aaron Ontoyin Yin, Yigit Ihlamur,
- Abstract要約: GPT-HTreeは階層的クラスタリング、決定木、大規模言語モデル(LLM)を組み合わせたフレームワークである。
LLMは、人間可読なクラスタ記述を生成し、実用的な洞察で定量的分析をブリッジすることで、フレームワークを強化します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces GPT-HTree, a framework combining hierarchical clustering, decision trees, and large language models (LLMs) to address this challenge. By leveraging hierarchical clustering to segment individuals based on salient features, resampling techniques to balance class distributions, and decision trees to tailor classification paths within each cluster, GPT-HTree ensures both accuracy and interpretability. LLMs enhance the framework by generating human-readable cluster descriptions, bridging quantitative analysis with actionable insights.
- Abstract(参考訳): 本稿では,階層的クラスタリング,決定木,大規模言語モデル(LLM)を組み合わせたフレームワークであるGPT-HTreeを紹介する。
GPT-HTreeは、階層的クラスタリングを活用して、健全な特徴に基づいて個人を分類し、クラス分布のバランスをとるための再サンプリング技術と、クラスタ内の分類パスを調整するための決定木を使用することで、正確性と解釈性の両方を保証する。
LLMは、人間可読なクラスタ記述を生成し、実用的な洞察で定量的分析をブリッジすることで、フレームワークを強化します。
関連論文リスト
- Learning Order Forest for Qualitative-Attribute Data Clustering [52.612779710298526]
本稿では,属性内定性値間の局所的な順序関係を柔軟に表現する木のような距離構造を探索する。
より適切な木構造とクラスタを反復的に獲得するために,共同学習機構を提案する。
実験により、共同学習は森林をクラスタリングタスクに適応させ、正確な結果を得ることを示した。
論文 参考訳(メタデータ) (2026-03-03T07:49:50Z) - From Tags to Trees: Structuring Fine-Grained Knowledge for Controllable Data Selection in LLM Instruction Tuning [31.186300383302708]
Tree-Aware Aligned Global Sampling (TAGS)は、きめ細かいタグから構築された知識ツリーを活用する統一フレームワークである。
我々の制御可能なサンプリング戦略は、木レベル情報ゲインを最大化し、特定のドメインに対するKL分割による葉レベルアライメントを強制する。
論文 参考訳(メタデータ) (2026-01-20T14:06:51Z) - TreeAdv: Tree-Structured Advantage Redistribution for Group-Based RL [7.149629501486536]
グループベースの目的を持った強化学習は、複雑な推論タスクで大きな言語モデルを整列するための共通のフレームワークである。
標準GRPOは各ロールアウト軌跡を独立フラットシーケンスとして扱い、全てのトークンに対して単一のシーケンスレベルの利点を割り当てる。
TreeAdvを導入し、グループロールアウトのツリー構造を探索と有利な割り当ての両方に明示する。
論文 参考訳(メタデータ) (2026-01-07T08:42:14Z) - Decomposing Visual Classification: Assessing Tree-Based Reasoning in VLMs [1.4231678631753704]
視覚言語モデル(VLM)は、ゼロショット視覚分類において優れるが、細粒度タスクや大きな階層的ラベル空間でのそれらの性能は検討されていない。
本稿では,木構造に基づく推論によってVLM性能が向上するかどうかを考察する。
論文 参考訳(メタデータ) (2025-09-10T13:08:03Z) - Divide-Then-Rule: A Cluster-Driven Hierarchical Interpolator for Attribute-Missing Graphs [51.13363550716544]
ディープグラフクラスタリングは、不完全な属性を持つノードを異なるクラスタに分割することを目的とした教師なしのタスクである。
既存の属性欠落グラフの計算法は、ノード近傍で利用可能な情報の量が異なることを説明できないことが多い。
この問題に対処するために、DTRGC(Divide-Then-Rule Graph Completion)を提案する。
論文 参考訳(メタデータ) (2025-07-12T03:33:19Z) - HERCULES: Hierarchical Embedding-based Recursive Clustering Using LLMs for Efficient Summarization [0.0]
HERCULESは、多様なデータ型の階層的なk平均クラスタリングのために設計されたアルゴリズムとPythonパッケージである。
階層のそれぞれのレベルでクラスタのセマンティックにリッチなタイトルと記述を生成する。
インタラクティブな可視化ツールは、クラスタリング結果の徹底的な分析と理解を容易にする。
論文 参考訳(メタデータ) (2025-06-24T20:22:00Z) - ODTE -- An ensemble of multi-class SVM-based oblique decision trees [0.7182449176083623]
ODTEは、斜め決定木をベース分類子として使用する新しいアンサンブルである。
斜め決定木を育成するための基本アルゴリズムSTreeを紹介する。
ODTEは一貫してライバルより上位に位置する。
論文 参考訳(メタデータ) (2024-11-20T14:58:32Z) - scGHSOM: Hierarchical clustering and visualization of single-cell and CRISPR data using growing hierarchical SOM [0.8452349885923507]
階層型自己組織化マップ (GHSOM) を育成するアン教師なしクラスタリングによる包括的遺伝子セル依存性の可視化を提案する。
GHSOMは、クラスタの自己成長構造が必要な変動を満足するように階層構造でクラスタサンプルに適用される。
本稿では,クラスタ特徴マップとクラスタ分布マップの2つの革新的な可視化ツールを提案する。
論文 参考訳(メタデータ) (2024-07-24T04:01:09Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - CueGCL: Cluster-aware Personalized Self-Training for Unsupervised Graph Contrastive Learning [49.88192702588169]
本稿ではクラスタリング結果とノード表現を協調的に学習するクラスタ対応グラフコントラスト学習フレームワーク(CueGCL)を提案する。
具体的には、教師なしシナリオのためのパーソナライズされた自己学習(PeST)戦略を設計し、クラスタレベルのパーソナライズされた正確な情報をモデルが取得できるようにする。
本稿では,モデルの有効性を理論的に実証し,クラスタ構造が著しく識別可能な埋め込み空間が得られることを示した。
論文 参考訳(メタデータ) (2023-11-18T13:45:21Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Hierarchical clustering by aggregating representatives in
sub-minimum-spanning-trees [5.877624540482919]
本稿では,クラスタリングデンドログラムを構築しながら,代表点を効果的に検出できる階層的クラスタリングアルゴリズムを提案する。
解析の結果,提案アルゴリズムはO(nlogn)時間複雑度とO(nlogn)空間複雑度を有し,大規模データ処理のスケーラビリティを示す。
論文 参考訳(メタデータ) (2021-11-11T07:36:55Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Interactive Steering of Hierarchical Clustering [30.371250297444703]
本稿では,公開知識(ウィキペディアなど)とユーザからのプライベート知識の両方を活用することで,制約付き階層的クラスタリングを視覚的に監視するインタラクティブなステアリング手法を提案する。
1)知識(知識駆動)と本質的なデータ分散(データ駆動)を用いて階層的クラスタリングの制約を自動的に構築する。
階層的クラスタリングの結果を明確に伝達するために,不確実性を考慮したツリー可視化が開発され,最も不確実なサブ階層を素早く見つけることができる。
論文 参考訳(メタデータ) (2020-09-21T05:26:07Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - Scalable Hierarchical Clustering with Tree Grafting [66.68869706310208]
Grinchは、大規模で非階層的な階層的クラスタリングと一般的なリンク関数のための新しいアルゴリズムである。
Grinchは、リンケージ関数を持つクラスタリングのための分離性という新しい概念によって動機付けられている。
論文 参考訳(メタデータ) (2019-12-31T20:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。