論文の概要: Interpretable Network-assisted Random Forest+
- arxiv url: http://arxiv.org/abs/2509.15611v1
- Date: Fri, 19 Sep 2025 05:22:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.009813
- Title: Interpretable Network-assisted Random Forest+
- Title(参考訳): 解釈可能なネットワーク支援型ランダムフォレスト+
- Authors: Tiffany M. Tang, Elizaveta Levina, Ji Zhu,
- Abstract要約: 我々はランダム森林(RF+)の一般化に基づくフレキシブルネットワーク支援モデル群を開発する。
我々は,グローバルおよびローカルな重要度と,所定の観測の影響を評価するためのサンプル影響度の両方を提供する。
このツールスイートは、高インパクト問題に対するネットワーク支援機械学習のスコープと適用性を広げる。
- 参考スコア(独自算出の注目度): 2.776181981917578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning algorithms often assume that training samples are independent. When data points are connected by a network, the induced dependency between samples is both a challenge, reducing effective sample size, and an opportunity to improve prediction by leveraging information from network neighbors. Multiple methods taking advantage of this opportunity are now available, but many, including graph neural networks, are not easily interpretable, limiting their usefulness for understanding how a model makes its predictions. Others, such as network-assisted linear regression, are interpretable but often yield substantially worse prediction performance. We bridge this gap by proposing a family of flexible network-assisted models built upon a generalization of random forests (RF+), which achieves highly-competitive prediction accuracy and can be interpreted through feature importance measures. In particular, we develop a suite of interpretation tools that enable practitioners to not only identify important features that drive model predictions, but also quantify the importance of the network contribution to prediction. Importantly, we provide both global and local importance measures as well as sample influence measures to assess the impact of a given observation. This suite of tools broadens the scope and applicability of network-assisted machine learning for high-impact problems where interpretability and transparency are essential.
- Abstract(参考訳): 機械学習アルゴリズムは、トレーニングサンプルが独立していると仮定することが多い。
データポイントがネットワークによって接続されている場合、サンプル間の依存性は困難であり、有効なサンプルサイズを削減し、ネットワーク隣人からの情報を活用して予測を改善する機会である。
この機会を利用する複数のメソッドが利用可能になったが、グラフニューラルネットワークを含む多くのモデルは容易に解釈できないため、モデルの予測方法を理解する上での有用性が制限されている。
ネットワーク支援線形回帰のような他の手法は解釈可能であるが、しばしば予測性能が著しく悪化する。
このギャップは、ランダム森林(RF+)の一般化に基づいて構築されたフレキシブルネットワーク支援モデル群により橋渡しされ、高い競争力のある予測精度を実現し、特徴重要度測定によって解釈できる。
特に、モデル予測を駆動する重要な特徴を識別するだけでなく、予測へのネットワーク貢献の重要性を定量化するための解釈ツール群を開発する。
重要なことは、我々は、グローバルおよびローカルな重要度と、与えられた観察の影響を評価するためのサンプル影響度の両方を提供する。
このツールスイートは、解釈可能性と透明性が不可欠である高インパクト問題に対して、ネットワーク支援機械学習のスコープと適用性を広げます。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Feature Perturbation Augmentation for Reliable Evaluation of Importance
Estimators in Neural Networks [5.439020425819001]
ポストホック解釈可能性法は、ディープニューラルネットワークの内部動作をより解釈可能にしようとする。
最も一般的な評価フレームワークの1つは、解釈可能性メソッドによって重要とみなされる機能を摂動させることである。
モデルトレーニング中に摂動画像を生成し,付加する特徴摂動増強(FPA)を提案する。
論文 参考訳(メタデータ) (2023-03-02T19:05:46Z) - Preference Enhanced Social Influence Modeling for Network-Aware Cascade
Prediction [59.221668173521884]
本稿では,ユーザの嗜好モデルを強化することで,カスケードサイズ予測を促進する新しいフレームワークを提案する。
エンド・ツー・エンドの手法により,ユーザの情報拡散プロセスがより適応的で正確になる。
論文 参考訳(メタデータ) (2022-04-18T09:25:06Z) - Locally Sparse Networks for Interpretable Predictions [7.362415721170984]
本稿では,局所的な疎度をサンプル固有のゲーティング機構を用いて学習する,局所スパースニューラルネットワークのトレーニングフレームワークを提案する。
サンプル固有の間隔は、テキスト予測ネットワークで予測され、テキスト予測ネットワークとタンデムでトレーニングされる。
本手法は,1インスタンスあたりの機能が少ないターゲット関数の予測において,最先端のモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T15:46:50Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Consistent feature selection for neural networks via Adaptive Group
Lasso [3.42658286826597]
ニューラルネットワークの重要な特徴を選択するための適応型グループの使用に関する理論的保証を提案し,確立する。
具体的には,1つの隠蔽層と双曲的タンジェント活性化関数を持つ単一出力フィードフォワードニューラルネットワークに対して,特徴選択法が整合であることを示す。
論文 参考訳(メタデータ) (2020-05-30T18:50:56Z) - GAMI-Net: An Explainable Neural Network based on Generalized Additive
Models with Structured Interactions [5.8010446129208155]
構造的相互作用を持つ一般化付加モデル(GAMI-Net)に基づく説明可能なニューラルネットワークを提案し,予測精度とモデル解釈可能性とのバランスを良好に追求する。
GAMI-Net(英語版)は、複数の添加物を持つ非絡み合ったフィードフォワードネットワークである。
合成関数と実世界のデータセットの双方に関する数値実験により,提案モデルが優れた解釈性を有することが示された。
論文 参考訳(メタデータ) (2020-03-16T11:51:38Z) - Feature Importance Estimation with Self-Attention Networks [0.0]
ブラックボックスニューラルネットワークモデルは、産業や科学で広く使われているが、理解と解釈が難しい。
近年,ニューラルネットワークモデルの内部動作に関する洞察を提供するアテンションメカニズムが導入されている。
本稿では、命題(タブラル)データから得られたモデルを説明する手段として、注目に基づくニューラルネットワーク機構を用いて特徴重要度を推定する。
論文 参考訳(メタデータ) (2020-02-11T15:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。