論文の概要: Interpretable Semiotics Networks Representing Awareness
- arxiv url: http://arxiv.org/abs/2310.05212v3
- Date: Fri, 16 Feb 2024 13:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 20:20:41.455779
- Title: Interpretable Semiotics Networks Representing Awareness
- Title(参考訳): 認識を表現した解釈可能なセミオティックスネットワーク
- Authors: David Kupeev and Eyal Nitcany
- Abstract要約: 本稿では,オブジェクトの知覚と表現を,コミュニケーションにおいて伝達されるときに追跡し,シミュレートする計算モデルについて述べる。
人による物体知覚モデルにより,ネットワークによる物体知覚を定義することができる。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans perceive objects daily and communicate their perceptions using various
channels. Here, we describe a computational model that tracks and simulates
objects' perception and their representations as they are conveyed in
communication.
We describe two key components of our internal representation ("observed" and
"seen") and relate them to familiar computer vision notions (encoding and
decoding). These elements are joined together to form semiotics networks, which
simulate awareness in object perception and human communication.
Nowadays, most neural networks are uninterpretable. On the other hand, our
model overcomes this limitation. The experiments demonstrates the visibility of
the model.
Our model of object perception by a person allows us to define object
perception by a network. We demonstrate this with an example of an image
baseline classifier by constructing a new network that includes the baseline
classifier and an additional layer. This layer produces the images "perceived"
by the entire network, transforming it into a perceptualized image classifier.
Within our network, the internal image representations become more efficient
for classification tasks when they are assembled and randomized. In our
experiments, the perceptualized network outperformed the baseline classifier on
MNIST training databases consisting of a restricted number of images.
Our model is not limited to persons and can be applied to any system
featuring a loop involving the processing from "internal" to "external"
representations.
- Abstract(参考訳): 人間は物体を毎日知覚し、様々なチャンネルを使って知覚を伝える。
本稿では,物体の知覚とその表現を追跡・シミュレートする計算モデルについて述べる。
内部表現("observed")と"seen"("seen")の2つの重要な要素を記述し、親しみやすいコンピュータビジョンの概念(エンコーディングとデコード)に関連付ける。
これらの要素が結合してセミオティックスネットワークを形成し、物体知覚と人間のコミュニケーションの認識をシミュレートする。
現在、ほとんどのニューラルネットワークは解釈できない。
一方、私たちのモデルは、この制限を克服します。
実験はモデルの可視性を実証する。
人による物体知覚モデルにより,ネットワークによる物体知覚を定義することができる。
本稿では,ベースライン分類器と付加層を含む新たなネットワークを構築することにより,画像ベースライン分類器の例を示す。
この層はネットワーク全体に「知覚」された画像を生成し、知覚化された画像分類器に変換する。
ネットワーク内では,アセンブルやランダム化時の分類タスクにおいて,内部画像表現がより効率的になる。
本実験では,MNISTトレーニングデータベースのベースライン分類器の性能を,制限された画像数で比較した。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
関連論文リスト
- Understanding the Role of Pathways in a Deep Neural Network [4.456675543894722]
分類タスクで訓練された畳み込みニューラルネットワーク(CNN)を分析し,個々の画素の拡散経路を抽出するアルゴリズムを提案する。
画像からの個々のピクセルの最も大きな経路は、分類に重要な各層の特徴マップを横断する傾向にある。
論文 参考訳(メタデータ) (2024-02-28T07:53:19Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Connecting metrics for shape-texture knowledge in computer vision [1.7785095623975342]
深層ニューラルネットワークは、人間が画像の分類ミスを起こさないような、画像の多くの変化の影響を受けやすいままである。
この異なる振る舞いの一部は、視覚タスクで人間とディープニューラルネットワークが使用する機能の種類によって説明できるかもしれない。
論文 参考訳(メタデータ) (2023-01-25T14:37:42Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Robustness of Humans and Machines on Object Recognition with Extreme
Image Transformations [0.0]
物体認識タスクにおいて、画像変換の新たなセットを導入し、人間とネットワークの評価を行う。
人間は高い精度で物体を認識できる一方で、いくつかの共通ネットワークの性能は急速に低下することがわかった。
論文 参考訳(メタデータ) (2022-05-09T17:15:54Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。