論文の概要: Interpretable Semiotics Networks Representing Awareness
- arxiv url: http://arxiv.org/abs/2310.05212v3
- Date: Fri, 16 Feb 2024 13:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 20:20:41.455779
- Title: Interpretable Semiotics Networks Representing Awareness
- Title(参考訳): 認識を表現した解釈可能なセミオティックスネットワーク
- Authors: David Kupeev and Eyal Nitcany
- Abstract要約: 本稿では,オブジェクトの知覚と表現を,コミュニケーションにおいて伝達されるときに追跡し,シミュレートする計算モデルについて述べる。
人による物体知覚モデルにより,ネットワークによる物体知覚を定義することができる。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans perceive objects daily and communicate their perceptions using various
channels. Here, we describe a computational model that tracks and simulates
objects' perception and their representations as they are conveyed in
communication.
We describe two key components of our internal representation ("observed" and
"seen") and relate them to familiar computer vision notions (encoding and
decoding). These elements are joined together to form semiotics networks, which
simulate awareness in object perception and human communication.
Nowadays, most neural networks are uninterpretable. On the other hand, our
model overcomes this limitation. The experiments demonstrates the visibility of
the model.
Our model of object perception by a person allows us to define object
perception by a network. We demonstrate this with an example of an image
baseline classifier by constructing a new network that includes the baseline
classifier and an additional layer. This layer produces the images "perceived"
by the entire network, transforming it into a perceptualized image classifier.
Within our network, the internal image representations become more efficient
for classification tasks when they are assembled and randomized. In our
experiments, the perceptualized network outperformed the baseline classifier on
MNIST training databases consisting of a restricted number of images.
Our model is not limited to persons and can be applied to any system
featuring a loop involving the processing from "internal" to "external"
representations.
- Abstract(参考訳): 人間は物体を毎日知覚し、様々なチャンネルを使って知覚を伝える。
本稿では,物体の知覚とその表現を追跡・シミュレートする計算モデルについて述べる。
内部表現("observed")と"seen"("seen")の2つの重要な要素を記述し、親しみやすいコンピュータビジョンの概念(エンコーディングとデコード)に関連付ける。
これらの要素が結合してセミオティックスネットワークを形成し、物体知覚と人間のコミュニケーションの認識をシミュレートする。
現在、ほとんどのニューラルネットワークは解釈できない。
一方、私たちのモデルは、この制限を克服します。
実験はモデルの可視性を実証する。
人による物体知覚モデルにより,ネットワークによる物体知覚を定義することができる。
本稿では,ベースライン分類器と付加層を含む新たなネットワークを構築することにより,画像ベースライン分類器の例を示す。
この層はネットワーク全体に「知覚」された画像を生成し、知覚化された画像分類器に変換する。
ネットワーク内では,アセンブルやランダム化時の分類タスクにおいて,内部画像表現がより効率的になる。
本実験では,MNISTトレーニングデータベースのベースライン分類器の性能を,制限された画像数で比較した。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
関連論文リスト
- Connectivity-Inspired Network for Context-Aware Recognition [1.049712834719005]
視覚認知に対処するために,生体脳の回路モチーフを取り入れることの効果に焦点をあてる。
私たちの畳み込みアーキテクチャは、人間の皮質と皮質下の流れの接続にインスパイアされています。
我々はコンテキスト認識をモデル化するための新しいプラグイン・アンド・プレイ・モジュールを提案する。
論文 参考訳(メタデータ) (2024-09-06T15:42:10Z) - Understanding the Role of Pathways in a Deep Neural Network [4.456675543894722]
分類タスクで訓練された畳み込みニューラルネットワーク(CNN)を分析し,個々の画素の拡散経路を抽出するアルゴリズムを提案する。
画像からの個々のピクセルの最も大きな経路は、分類に重要な各層の特徴マップを横断する傾向にある。
論文 参考訳(メタデータ) (2024-02-28T07:53:19Z) - Finding Concept Representations in Neural Networks with Self-Organizing
Maps [2.817412580574242]
ニューラルネットワークの層活性化が抽象概念の神経表現にどのように対応するかを調べるために,自己組織化マップをどのように利用できるかを示す。
実験の結果, 概念の活性化マップの相対エントロピーは適切な候補であり, 概念の神経表現を同定し, 特定するための方法論として利用できることがわかった。
論文 参考訳(メタデータ) (2023-12-10T12:10:34Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - CLiC: Concept Learning in Context [54.81654147248919]
本稿では,視覚概念学習の最近の進歩に基づく。
ソースイメージから視覚概念を取得し、その後ターゲットイメージ内のオブジェクトに適用する。
概念学習のローカライズには,マスク内の概念と周囲の画像領域の両方を含むソフトマスクを用いる。
論文 参考訳(メタデータ) (2023-11-28T01:33:18Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z) - Disentangle Perceptual Learning through Online Contrastive Learning [16.534353501066203]
人間の視覚的知覚による現実的な結果の獲得は、画像変換タスクにおける中心的な関心事である。
本稿では,事前学習した分類ネットワークの特徴表現の中で,人間の視覚知覚に限定した次元しか関連していないことを論じる。
このような仮定の下で,提案したオンラインコントラスト学習を通じて,認識関連次元を表現から切り離そうとする。
論文 参考訳(メタデータ) (2020-06-24T06:48:38Z) - Learning Representations by Predicting Bags of Visual Words [55.332200948110895]
自己教師付き表現学習ターゲットは、ラベルなしデータから畳み込みに基づく画像表現を学習する。
この分野におけるNLP手法の成功に触発された本研究では,空間的に高密度な画像記述に基づく自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T16:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。