論文の概要: Interpretable Semiotics Networks Representing Awareness
- arxiv url: http://arxiv.org/abs/2310.05212v1
- Date: Sun, 8 Oct 2023 16:05:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 11:16:45.966856
- Title: Interpretable Semiotics Networks Representing Awareness
- Title(参考訳): 認識を表現した解釈可能なセミオティックスネットワーク
- Authors: David Kupeev and Eyal Nitcany
- Abstract要約: 本稿では,物体の知覚とその表現を追跡・シミュレートする計算モデルについて述べる。
内部表現の2つの重要な要素(「観察」と「観察」)を記述し、よく知られたコンピュータビジョン用語に関連付ける。
いくつかの実験を行い、モデルの可視性を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans perceive objects daily and communicate their perceptions using various
channels. Here, we describe a computational model that track and simulate
objects' perception, and their representations as they pass in communication.
We describe two key components of our internal representation ('observed' and
'seen') and relate them to familiar computer vision terms (encoding and
decoding). These elements joined together to form semiotic networks, which
simulate awareness in object perception and human communication.
Nowadays, most neural networks are uninterpretable. On the other hand, our
model is free from this disadvantages. We performed several experiments and
demonstrated the visibility of our model.
We describe how our network may be used as preprocessing unit to any
classification network. In our experiments the compound network overperforms in
average the classification network at datasets with small training data.
Future work would leverage our model to gain better understanding of human
communications and personal representations.
- Abstract(参考訳): 人間は物体を毎日知覚し、様々なチャンネルを使って知覚を伝える。
本稿では,物体の知覚とその表現を追跡・シミュレートする計算モデルについて述べる。
内部表現の2つの重要な要素(「観測」と「見える」)を記述し、よく知られたコンピュータビジョン用語(エンコーディングと復号)に関連付ける。
これらの要素が組み合わさってセミオティックネットワークを形成し、物体の知覚と人間のコミュニケーションの認識をシミュレートする。
現在、ほとんどのニューラルネットワークは解釈できない。
一方で、私たちのモデルは、この欠点から自由です。
いくつかの実験を行い,モデルの可視性を示した。
ネットワークを任意の分類ネットワークの前処理ユニットとして使用する方法について述べる。
実験では、コンプレックスネットワークは、小さなトレーニングデータでデータセットの分類ネットワークの平均を上回っています。
将来の作業は、私たちのモデルを活用して、人間のコミュニケーションと個人的表現をよりよく理解するでしょう。
関連論文リスト
- Understanding the Role of Pathways in a Deep Neural Network [4.456675543894722]
分類タスクで訓練された畳み込みニューラルネットワーク(CNN)を分析し,個々の画素の拡散経路を抽出するアルゴリズムを提案する。
画像からの個々のピクセルの最も大きな経路は、分類に重要な各層の特徴マップを横断する傾向にある。
論文 参考訳(メタデータ) (2024-02-28T07:53:19Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Connecting metrics for shape-texture knowledge in computer vision [1.7785095623975342]
深層ニューラルネットワークは、人間が画像の分類ミスを起こさないような、画像の多くの変化の影響を受けやすいままである。
この異なる振る舞いの一部は、視覚タスクで人間とディープニューラルネットワークが使用する機能の種類によって説明できるかもしれない。
論文 参考訳(メタデータ) (2023-01-25T14:37:42Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Robustness of Humans and Machines on Object Recognition with Extreme
Image Transformations [0.0]
物体認識タスクにおいて、画像変換の新たなセットを導入し、人間とネットワークの評価を行う。
人間は高い精度で物体を認識できる一方で、いくつかの共通ネットワークの性能は急速に低下することがわかった。
論文 参考訳(メタデータ) (2022-05-09T17:15:54Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。