論文の概要: Multiple Instance Learning with Trainable Decision Tree Ensembles
- arxiv url: http://arxiv.org/abs/2302.06601v1
- Date: Mon, 13 Feb 2023 18:56:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 14:17:48.563085
- Title: Multiple Instance Learning with Trainable Decision Tree Ensembles
- Title(参考訳): 学習可能な決定木を用いた複数インスタンス学習
- Authors: Andrei V. Konstantinov and Lev V. Utkin
- Abstract要約: 新しい柔らかい決定木が検討され、よく知られた柔らかい斜めの木に類似している。
木関数を近似した特定の形のニューラルネットワークに変換することが提案されている。
また、アテンション機構を用いて、インスタンスとバッグの埋め込み(出力ベクトル)を集約することも提案されている。
- 参考スコア(独自算出の注目度): 5.482532589225552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new random forest based model for solving the Multiple Instance Learning
(MIL) problem under small tabular data, called Soft Tree Ensemble MIL
(STE-MIL), is proposed. A new type of soft decision trees is considered, which
is similar to the well-known soft oblique trees, but with a smaller number of
trainable parameters. In order to train the trees, it is proposed to convert
them into neural networks of a specific form, which approximate the tree
functions. It is also proposed to aggregate the instance and bag embeddings
(output vectors) by using the attention mechanism. The whole STE-MIL model,
including soft decision trees, neural networks, the attention mechanism and a
classifier, is trained in an end-to-end manner. Numerical experiments with
tabular datasets illustrate STE-MIL. The corresponding code implementing the
model is publicly available.
- Abstract(参考訳): ソフトツリー・アンサンブル・MIL (Soft Tree Ensemble MIL, STE-MIL) と呼ばれる小さな表付きデータの下での多重インスタンス学習 (MIL) 問題の解法を提案する。
新しいタイプの軟度決定木が検討されており、よく知られた軟度傾斜木に似ているが、訓練可能なパラメータは少ない。
木を訓練するために、木関数を近似する特定の形のニューラルネットワークに変換することが提案されている。
また、アテンション機構を用いて、インスタンスとバッグ埋め込み(アウトプットベクトル)を集約することも提案されている。
ソフト決定木、ニューラルネットワーク、注意機構、分類器を含むSTE-MILモデル全体をエンドツーエンドでトレーニングする。
表付きデータセットによる数値実験はSTE-MILを例証する。
モデルを実装する対応するコードは公開されている。
関連論文リスト
- Terminating Differentiable Tree Experts [77.2443883991608]
本稿では,変圧器と表現生成器の組み合わせを用いて木操作を学習するニューラルシンボリック微分木機械を提案する。
まず、専門家の混在を導入することで、各ステップで使用される一連の異なるトランスフォーマーレイヤを取り除きます。
また,モデルが自動生成するステップ数を選択するための新しい終端アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-02T08:45:38Z) - TreeDQN: Learning to minimize Branch-and-Bound tree [78.52895577861327]
Branch-and-Boundは、Mixed Linear Programsという形で最適化タスクを解決するための便利なアプローチである。
解法の効率は、分割する変数を選択するのに使用される分岐に依存する。
分岐を効率的に学習できる強化学習法を提案する。
論文 参考訳(メタデータ) (2023-06-09T14:01:26Z) - Unboxing Tree Ensembles for interpretability: a hierarchical
visualization tool and a multivariate optimal re-built tree [0.34530027457862006]
我々は,木組モデルの解釈可能な表現を開発し,その振る舞いに関する貴重な洞察を提供する。
提案モデルは,木組決定関数を近似した浅い解釈可能な木を得るのに有効である。
論文 参考訳(メタデータ) (2023-02-15T10:43:31Z) - An Approximation Method for Fitted Random Forests [0.0]
本研究では,葉にデータポイントを割り当てたランダムフォレストモデルを用いて,各木を近似する手法について検討した。
具体的には,多項ロジスティック回帰の適合が予測品質を保ちながらサイズを減少させるかどうかを考察することから始める。
論文 参考訳(メタデータ) (2022-07-05T17:28:52Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Attentive Tree-structured Network for Monotonicity Reasoning [2.4366811507669124]
単調性推論のための木構造ニューラルネットワークを開発した。
推論タスクの文対から構文解析木情報をモデル化するように設計されている。
前提と仮説の表現を整列するために、自己注意集約器が使用される。
論文 参考訳(メタデータ) (2021-01-03T01:29:48Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Learning with tree tensor networks: complexity estimates and model
selection [33.10033799230797]
経験的リスク最小化フレームワークを用いて,木テンソルネットワークの複雑性に基づくモデル選択法を解析する。
我々の戦略は、ソボレフ空間やベソフ空間を含む幅広い滑らか度クラスに適応するミニマックスであることが示される。
論文 参考訳(メタデータ) (2020-07-02T14:52:08Z) - Tree-AMP: Compositional Inference with Tree Approximate Message Passing [23.509275850721778]
Tree-AMPは高次元木構造モデルにおける合成推論のためのピソンパッケージである。
このパッケージは、いくつかの近似メッセージパッシングアルゴリズムを研究するための統一フレームワークを提供する。
論文 参考訳(メタデータ) (2020-04-03T13:51:10Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。