論文の概要: SegNBDT: Visual Decision Rules for Segmentation
- arxiv url: http://arxiv.org/abs/2006.06868v1
- Date: Thu, 11 Jun 2020 23:10:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 12:56:28.246806
- Title: SegNBDT: Visual Decision Rules for Segmentation
- Title(参考訳): SegNBDT: セグメンテーションのための視覚的決定ルール
- Authors: Alvin Wan, Daniel Ho, Younjin Song, Henk Tillman, Sarah Adel Bargal,
Joseph E. Gonzalez
- Abstract要約: セグメンテーションのためのハイブリッドニューラルネットワークと決定ツリーモデルを構築した。
セグメンテーションにサラリティー手法を拡張することで意味的な視覚的意味を得る。
我々のモデルは最先端のHRNetV2セグメンテーションモデルの2-4%以内の精度が得られる。
- 参考スコア(独自算出の注目度): 26.90558353725608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The black-box nature of neural networks limits model decision
interpretability, in particular for high-dimensional inputs in computer vision
and for dense pixel prediction tasks like segmentation. To address this, prior
work combines neural networks with decision trees. However, such models (1)
perform poorly when compared to state-of-the-art segmentation models or (2)
fail to produce decision rules with spatially-grounded semantic meaning. In
this work, we build a hybrid neural-network and decision-tree model for
segmentation that (1) attains neural network segmentation accuracy and (2)
provides semi-automatically constructed visual decision rules such as "Is there
a window?". We obtain semantic visual meaning by extending saliency methods to
segmentation and attain accuracy by leveraging insights from neural-backed
decision trees, a deep learning analog of decision trees for image
classification. Our model SegNBDT attains accuracy within ~2-4% of the
state-of-the-art HRNetV2 segmentation model while also retaining
explainability; we achieve state-of-the-art performance for explainable models
on three benchmark datasets -- Pascal-Context (49.12%), Cityscapes (79.01%),
and Look Into Person (51.64%). Furthermore, user studies suggest visual
decision rules are more interpretable, particularly for incorrect predictions.
Code and pretrained models can be found at
https://github.com/daniel-ho/SegNBDT.
- Abstract(参考訳): ニューラルネットワークのブラックボックスの性質は、特にコンピュータビジョンの高次元入力やセグメンテーションのような高密度画素予測タスクにおいて、モデル決定の解釈可能性を制限する。
これを解決するために、以前の研究はニューラルネットワークと決定木を組み合わせる。
しかし,(1)最先端のセグメンテーションモデルと比較した場合や,(2)空間的意味を持つ決定ルールの作成に失敗する場合は,その性能は低下する。
本研究では,(1)ニューラルネットワークのセグメンテーション精度を達成し,(2)「窓はあるか?」といった半自動的な視覚決定ルールを提供する,セグメンテーションのためのハイブリッドニューラルネットワークと決定木モデルを構築した。
画像分類のための決定木のディープラーニングアナログであるneural-backed decision treeからの洞察を活用し,サリエンシー法をセグメント化に拡張することで,意味的視覚的意味を得る。
我々は3つのベンチマークデータセット(Pascal-Context (49.12%)、Cityscapes (79.01%)、Look Into Person (51.64%)で説明可能なモデルに対する最先端のパフォーマンスを達成する。
さらに、ユーザ研究は、特に誤った予測に関して、視覚的な決定ルールがより解釈可能であることを示唆している。
コードと事前訓練されたモデルはhttps://github.com/daniel-ho/SegNBDT.comで見ることができる。
関連論文リスト
- Neural-prior stochastic block model [0.0]
我々は,コミュニティを,逆ではなくノード属性によって決定されるものとしてモデル化することを提案する。
本稿では,信念伝播と近似メッセージパッシングを組み合わせた統計物理に基づくアルゴリズムを提案する。
提案したモデルとアルゴリズムは理論とアルゴリズムのベンチマークとして利用できる。
論文 参考訳(メタデータ) (2023-03-17T14:14:54Z) - Concept-based Explanations using Non-negative Concept Activation Vectors
and Decision Tree for CNN Models [4.452019519213712]
本稿では、概念に基づく説明書から抽出した概念に基づいて決定木を訓練することで、畳み込みニューラルネットワーク(CNN)モデルの解釈可能性を高めることができるかどうかを評価する。
論文 参考訳(メタデータ) (2022-11-19T21:42:55Z) - A Novel Hand Gesture Detection and Recognition system based on
ensemble-based Convolutional Neural Network [3.5665681694253903]
コンピュータビジョンとパターン認識コミュニティでは,手の部分検出が課題となっている。
畳み込みニューラルネットワーク(CNN)アーキテクチャのようなディープラーニングアルゴリズムは、分類タスクにおいて非常に一般的な選択肢となっている。
本稿では,CNNに基づくアプローチのアンサンブルを用いて,予測時の高分散や過度な問題,予測誤差などの問題を克服する。
論文 参考訳(メタデータ) (2022-02-25T06:46:58Z) - Inference Graphs for CNN Interpretation [12.765543440576144]
畳み込みニューラルネットワーク(CNN)は多くの視覚関連タスクにおいて優れた精度を実現している。
本稿では,確率モデルを用いたネットワーク隠蔽層の活動のモデル化を提案する。
このようなグラフは、クラス全体の推論プロセスの理解や、ネットワークが特定の画像に対して行う決定を説明するのに有用であることを示す。
論文 参考訳(メタデータ) (2021-10-20T13:56:09Z) - Combining Discrete Choice Models and Neural Networks through Embeddings:
Formulation, Interpretability and Performance [10.57079240576682]
本研究では、ニューラルネットワーク(ANN)を用いた理論とデータ駆動選択モデルを組み合わせた新しいアプローチを提案する。
特に、分類的または離散的説明変数を符号化するために、埋め込みと呼ばれる連続ベクトル表現を用いる。
我々のモデルは最先端の予測性能を提供し、既存のANNモデルよりも優れ、必要なネットワークパラメータの数を劇的に削減します。
論文 参考訳(メタデータ) (2021-09-24T15:55:31Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。