論文の概要: Semiotics Networks Representing Perceptual Inference
- arxiv url: http://arxiv.org/abs/2310.05212v5
- Date: Tue, 17 Dec 2024 20:44:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:46:32.455253
- Title: Semiotics Networks Representing Perceptual Inference
- Title(参考訳): 知覚推論を表現したセミオティックスネットワーク
- Authors: David Kupeev, Eyal Nitzany,
- Abstract要約: 本稿では,物体の知覚を追跡・シミュレートする計算モデルを提案する。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Every day, humans perceive objects and communicate these perceptions through various channels. In this paper, we present a computational model designed to track and simulate the perception of objects, as well as their representations as conveyed in communication. We delineate two fundamental components of our internal representation, termed "observed" and "seen", which we correlate with established concepts in computer vision, namely encoding and decoding. These components are integrated into semiotic networks, which simulate perceptual inference of object perception and human communication. Our model of object perception by a person allows us to define object perception by {\em a network}. We demonstrate this with an example of an image baseline classifier by constructing a new network that includes the baseline classifier and an additional layer. This layer produces the images "perceived" by the entire network, transforming it into a perceptualized image classifier. This facilitates visualization of the acquired network. Within our network, the image representations become more efficient for classification tasks when they are assembled and randomized. In our experiments, the perceptualized network outperformed the baseline classifier on MNIST training databases consisting of a restricted number of images. Our model is not limited to persons and can be applied to any system featuring a loop involving the processing from "internal" to "external" representations.
- Abstract(参考訳): 毎日、人間は物体を知覚し、様々なチャネルを通して知覚を伝える。
本稿では,物体の知覚の追跡とシミュレートを目的とした計算モデルを提案する。
我々は、コンピュータビジョンの確立した概念、すなわちエンコーディングとデコードとを関連付ける「観測された」と「見える」という、内部表現の2つの基本的な構成要素を記述している。
これらのコンポーネントは、物体知覚と人間のコミュニケーションの知覚的推論をシミュレートするセミオティックネットワークに統合される。
人による物体知覚モデルでは,ネットワークによって物体知覚を定義することができる。
ベースライン分類器と付加層を含む新しいネットワークを構築することにより、画像ベースライン分類器の例でこれを実証する。
この層は、ネットワーク全体によって"知覚される"イメージを生成し、知覚化されたイメージ分類器に変換する。
これにより、取得したネットワークの可視化が容易になる。
ネットワーク内では、画像表現は、それらが組み立てられ、ランダム化されたときに、分類タスクに対してより効率的になる。
本実験では,MNISTトレーニングデータベースのベースライン分類器の性能を,制限された画像数で比較した。
我々のモデルは人間に限らず、「内部」表現から「外部」表現への処理を含むループを含むシステムに適用することができる。
関連論文リスト
- Connectivity-Inspired Network for Context-Aware Recognition [1.049712834719005]
視覚認知に対処するために,生体脳の回路モチーフを取り入れることの効果に焦点をあてる。
私たちの畳み込みアーキテクチャは、人間の皮質と皮質下の流れの接続にインスパイアされています。
我々はコンテキスト認識をモデル化するための新しいプラグイン・アンド・プレイ・モジュールを提案する。
論文 参考訳(メタデータ) (2024-09-06T15:42:10Z) - Understanding the Role of Pathways in a Deep Neural Network [4.456675543894722]
分類タスクで訓練された畳み込みニューラルネットワーク(CNN)を分析し,個々の画素の拡散経路を抽出するアルゴリズムを提案する。
画像からの個々のピクセルの最も大きな経路は、分類に重要な各層の特徴マップを横断する傾向にある。
論文 参考訳(メタデータ) (2024-02-28T07:53:19Z) - Finding Concept Representations in Neural Networks with Self-Organizing
Maps [2.817412580574242]
ニューラルネットワークの層活性化が抽象概念の神経表現にどのように対応するかを調べるために,自己組織化マップをどのように利用できるかを示す。
実験の結果, 概念の活性化マップの相対エントロピーは適切な候補であり, 概念の神経表現を同定し, 特定するための方法論として利用できることがわかった。
論文 参考訳(メタデータ) (2023-12-10T12:10:34Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - CLiC: Concept Learning in Context [54.81654147248919]
本稿では,視覚概念学習の最近の進歩に基づく。
ソースイメージから視覚概念を取得し、その後ターゲットイメージ内のオブジェクトに適用する。
概念学習のローカライズには,マスク内の概念と周囲の画像領域の両方を含むソフトマスクを用いる。
論文 参考訳(メタデータ) (2023-11-28T01:33:18Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z) - Disentangle Perceptual Learning through Online Contrastive Learning [16.534353501066203]
人間の視覚的知覚による現実的な結果の獲得は、画像変換タスクにおける中心的な関心事である。
本稿では,事前学習した分類ネットワークの特徴表現の中で,人間の視覚知覚に限定した次元しか関連していないことを論じる。
このような仮定の下で,提案したオンラインコントラスト学習を通じて,認識関連次元を表現から切り離そうとする。
論文 参考訳(メタデータ) (2020-06-24T06:48:38Z) - Learning Representations by Predicting Bags of Visual Words [55.332200948110895]
自己教師付き表現学習ターゲットは、ラベルなしデータから畳み込みに基づく画像表現を学習する。
この分野におけるNLP手法の成功に触発された本研究では,空間的に高密度な画像記述に基づく自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T16:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。