論文の概要: Explaining neural network predictions of material strength
- arxiv url: http://arxiv.org/abs/2111.03729v1
- Date: Fri, 5 Nov 2021 21:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:32:00.096914
- Title: Explaining neural network predictions of material strength
- Title(参考訳): 材料強度のニューラルネットワーク予測を説明する
- Authors: Ian A. Palmer and T. Nathan Mundhenk and Brian Gallagher and Yong Han
- Abstract要約: コンピュータビジョンでは、説明可能なAI唾液マップを使用して、画像のどの部分がネットワークの決定に重要であるかを伝えることが一般的である。
我々は,SEM画像の重要な位置から解釈しやすい非抽象的なテクスチャへ特徴をマッピングする手法を開発した。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We recently developed a deep learning method that can determine the critical
peak stress of a material by looking at scanning electron microscope (SEM)
images of the material's crystals. However, it has been somewhat unclear what
kind of image features the network is keying off of when it makes its
prediction. It is common in computer vision to employ an explainable AI
saliency map to tell one what parts of an image are important to the network's
decision. One can usually deduce the important features by looking at these
salient locations. However, SEM images of crystals are more abstract to the
human observer than natural image photographs. As a result, it is not easy to
tell what features are important at the locations which are most salient. To
solve this, we developed a method that helps us map features from important
locations in SEM images to non-abstract textures that are easier to interpret.
- Abstract(参考訳): 本研究では, 材料結晶の走査型電子顕微鏡(SEM)画像を用いて, 材料の臨界ピーク応力を決定する深層学習法を開発した。
しかし、それがいつ予測されるのかは、ネットワークがどのような特徴を持っているのかは定かではない。
コンピュータビジョンでは、説明可能なAI唾液マップを使用して、画像のどの部分がネットワークの決定に重要であるかを伝えることが一般的である。
通常、これらの静かな場所を見ることで重要な特徴を推測することができる。
しかし、結晶のsem画像は自然画像写真よりも人間の観察者にとって抽象的である。
結果として、最も有能な場所において、どの機能が重要かを知るのは容易ではない。
そこで我々は,SEM画像中の重要な位置から,解釈しやすい非抽象的なテクスチャへ特徴をマッピングする手法を開発した。
関連論文リスト
- EmoCAM: Toward Understanding What Drives CNN-based Emotion Recognition [3.031375888004876]
他のニューラルネットワークと同様に、それらは"ブラックボックス"モデルであり、説明性に乏しい。
この研究は、画像からの感情認識の特定の下流タスクに関係しており、CAMベースの手法とコーパスレベルでのオブジェクト検出を組み合わせたフレームワークを提案し、特定のモデル、例えばEmoNetでは、イメージに特定の感情を割り当てることに頼っている。
論文 参考訳(メタデータ) (2024-07-19T13:47:02Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - The Intrinsic Manifolds of Radiological Images and their Role in Deep
Learning [2.806890214136407]
自然画像と放射像の内在多様体次元を比較した。
また,本質的な次元と多種多様なデータセットに対する一般化能力の関係についても検討した。
論文 参考訳(メタデータ) (2022-07-06T16:33:07Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - A Comparison of Deep Saliency Map Generators on Multispectral Data in
Object Detection [9.264502124445348]
本研究は, それらの地図が異なるスペクトル間でどのように異なるかについて, 3つのサリエンシマップ生成法について検討する。
現実的な問題として、我々は自律運転のための赤外線および視覚スペクトルにおける物体検出を選択した。
その結果,赤外線と視覚のアクティベーションマップの違いが判明した。
さらに、赤外線と視覚データの両方による高度なトレーニングは、ネットワークの出力を改善するだけでなく、唾液マップのより焦点を絞ったスポットにもつながります。
論文 参考訳(メタデータ) (2021-08-26T12:56:49Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z) - Learning Depth With Very Sparse Supervision [57.911425589947314]
本稿では, 環境との相互作用を通じて, 知覚が世界の3次元特性と結合するという考えを考察する。
我々は、環境と対話するロボットが利用できるような、特殊なグローバルローカルネットワークアーキテクチャを訓練する。
いくつかのデータセットの実験では、画像ピクセルの1つでも基底真理が利用できる場合、提案されたネットワークは、最先端のアプローチよりも22.5%の精度でモノクロの深度推定を学習できることを示している。
論文 参考訳(メタデータ) (2020-03-02T10:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。