論文の概要: Interpretable Architecture Neural Networks for Function Visualization
- arxiv url: http://arxiv.org/abs/2303.03393v1
- Date: Fri, 3 Mar 2023 21:09:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 17:38:45.562557
- Title: Interpretable Architecture Neural Networks for Function Visualization
- Title(参考訳): 関数可視化のための解釈可能なアーキテクチャニューラルネットワーク
- Authors: Shengtong Zhang, Daniel W. Apley
- Abstract要約: 本稿では、解釈可能なアーキテクチャニューラルネットワーク(IANN)を用いて、全ての入力変数の効果を直接かつ同時に可視化する新しい可視化手法を提案する。
本稿では,2つの解釈可能な構造を提案する。
また提案手法を実装するためのPythonパッケージも提供します。
- 参考スコア(独自算出の注目度): 1.9798034349981157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many scientific research fields, understanding and visualizing a black-box
function in terms of the effects of all the input variables is of great
importance. Existing visualization tools do not allow one to visualize the
effects of all the input variables simultaneously. Although one can select one
or two of the input variables to visualize via a 2D or 3D plot while holding
other variables fixed, this presents an oversimplified and incomplete picture
of the model. To overcome this shortcoming, we present a new visualization
approach using an interpretable architecture neural network (IANN) to visualize
the effects of all the input variables directly and simultaneously. We propose
two interpretable structures, each of which can be conveniently represented by
a specific IANN, and we discuss a number of possible extensions. We also
provide a Python package to implement our proposed method. The supplemental
materials are available online.
- Abstract(参考訳): 多くの科学研究分野において、すべての入力変数の効果の観点からブラックボックス関数の理解と可視化は非常に重要である。
既存の可視化ツールは、すべての入力変数の効果を同時に可視化することができない。
他の変数を固定しながら、2dまたは3dプロットで視覚化する入力変数の1つまたは2つを選択できるが、このモデルは単純化され、不完全である。
この欠点を克服するために、解釈可能なアーキテクチャニューラルネットワーク(IANN)を用いて、全ての入力変数の効果を直接かつ同時に可視化する新しい可視化手法を提案する。
本稿では,2つの解釈可能な構造を提案し,それぞれが特定のIANNで便利に表現できることを示す。
また提案手法を実装するためのPythonパッケージも提供する。
追加資料はオンラインで入手できる。
関連論文リスト
- Cohere3D: Exploiting Temporal Coherence for Unsupervised Representation
Learning of Vision-based Autonomous Driving [73.3702076688159]
本稿では,コヒーレントなインスタンス表現を長期入力シーケンスで学習するための,新しいコントラスト学習アルゴリズムであるCohere3Dを提案する。
我々は,様々な下流認識,予測,計画タスクにおいて,事前学習したモデルを微調整することにより,アルゴリズムを評価する。
論文 参考訳(メタデータ) (2024-02-23T19:43:01Z) - The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - Multimodal Graph Transformer for Multimodal Question Answering [9.292566397511763]
本稿では,複数のモーダルをまたがる推論を必要とする質問応答タスクのための新しいマルチモーダルグラフ変換器を提案する。
マルチモーダルグラフ情報を組み込むための,グラフを包含したプラグアンドプレイ準アテンション機構を提案する。
GQA, VQAv2, MultiModalQAデータセット上のトランスフォーマーベースラインに対するマルチモーダルグラフ変換の有効性を検証する。
論文 参考訳(メタデータ) (2023-04-30T21:22:35Z) - Extracting Motion and Appearance via Inter-Frame Attention for Efficient
Video Frame Interpolation [46.23787695590861]
動作と外観情報を統一操作により明示的に抽出する新しいモジュールを提案する。
具体的には、フレーム間注目における情報処理を再考し、その注目マップを外観特徴強調と動き情報抽出の両方に再利用する。
固定時間と任意時間の両方において,本手法は各種データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-01T12:00:15Z) - Multimodal Vision Transformers with Forced Attention for Behavior
Analysis [0.0]
本稿では,強制注意(FAt)変換を導入し,入力エンコーディングや追加入力の利用に改良されたバックボーンを付加した。
FAt変換器は、パーソナリティ認識とボディランゲージ認識の2つの下流タスクに適用される。
Udiva v0.5, First Impressions v2, MPII Group Interaction データセットの最先端結果を得た。
論文 参考訳(メタデータ) (2022-12-07T21:56:50Z) - Learning Multi-Object Dynamics with Compositional Neural Radiance Fields [63.424469458529906]
本稿では,暗黙的オブジェクトエンコーダ,ニューラルレージアンスフィールド(NeRF),グラフニューラルネットワークに基づく画像観測から構成予測モデルを学習する手法を提案する。
NeRFは3D以前の強みから、シーンを表現するための一般的な選択肢となっている。
提案手法では,学習した潜時空間にRTを応用し,そのモデルと暗黙のオブジェクトエンコーダを用いて潜時空間を情報的かつ効率的にサンプリングする。
論文 参考訳(メタデータ) (2022-02-24T01:31:29Z) - Integrating Visuospatial, Linguistic and Commonsense Structure into
Story Visualization [81.26077816854449]
まず、構造的入力を符号化するための選挙区解析木の利用について検討する。
第二に、構造化されたインプットをコモンセンス情報で強化し、この外部知識が視覚的ストーリーの生成に与える影響について検討する。
第3に、境界ボックスと高密度キャプションによって視覚構造を組み込んで、生成された画像の文字やオブジェクトに関するフィードバックを提供する。
論文 参考訳(メタデータ) (2021-10-21T00:16:02Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Visual Neural Decomposition to Explain Multivariate Data Sets [13.117139248511783]
多次元データセットにおける変数間の関係を調べることは、データアナリストとエンジニアにとって共通の課題である。
本稿では,入力変数と対象変数との相関関係を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T15:53:37Z) - Dynamic Graph Representation Learning for Video Dialog via Multi-Modal
Shuffled Transformers [89.00926092864368]
音声・視覚シーン認識ダイアログタスクのためのセマンティクス制御型マルチモーダルシャッフルトランスフォーマー推論フレームワークを提案する。
また,フレーム内推論層を用いた動的シーングラフ表現学習パイプラインを提案する。
その結果,全ての評価指標について最先端の性能を示すことができた。
論文 参考訳(メタデータ) (2020-07-08T02:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。