論文の概要: Disclosure of a Neuromorphic Starter Kit
- arxiv url: http://arxiv.org/abs/2211.04526v1
- Date: Tue, 8 Nov 2022 19:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:30:00.969630
- Title: Disclosure of a Neuromorphic Starter Kit
- Title(参考訳): ニューロモルフィックスターターキットの開示
- Authors: James S. Plank and Bryson Gullett and Adam Z. Foshie and Garrett S.
Rose and Catherine D. Schuman
- Abstract要約: Neuromorphic Starter Kitは、脳をベースにした、ニューロモルフィックなプロセッサとハードウェア環境の研究、探索、実世界のデモを行う様々な研究グループを支援するように設計されている。
試作キットが開発・試験され,その背景にあるモチベーション,設計と構成,プロトタイプの物理実演が説明されている。
- 参考スコア(独自算出の注目度): 0.4199844472131921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a Neuromorphic Starter Kit, which has been designed to
help a variety of research groups perform research, exploration and real-world
demonstrations of brain-based, neuromorphic processors and hardware
environments. A prototype kit has been built and tested. We explain the
motivation behind the kit, its design and composition, and a prototype physical
demonstration.
- Abstract(参考訳): 本稿では,脳をベースとした,ニューロモーフィックなプロセッサとハードウェア環境の研究,探索,実世界の実演を行う研究グループを支援するために設計されたNeuromorphic Starter Kitを提案する。
プロトタイプキットが作られ、テストされています。
このキットの背景にあるモチベーション、設計と構成、そしてプロトタイプの物理実演について説明する。
関連論文リスト
- Query-guided Prototype Evolution Network for Few-Shot Segmentation [85.75516116674771]
本稿では,前景と背景のプロトタイプの生成プロセスにクエリ機能を統合する新しい手法を提案する。
PASCAL-$5i$とミラーリング-$20i$データセットの実験結果は、QPENetが達成した実質的な拡張を示している。
論文 参考訳(メタデータ) (2024-03-11T07:50:40Z) - OpenMEDLab: An Open-source Platform for Multi-modality Foundation Models
in Medicine [55.29668193415034]
マルチモダリティ基盤モデルのためのオープンソースプラットフォームであるOpenMEDLabについて紹介する。
これは、最前線臨床および生体情報学応用のための大規模言語とビジョンモデルを刺激し、微調整する先駆的な試みの解決策をカプセル化する。
様々な医用画像のモダリティ、臨床テキスト、タンパク質工学など、事前訓練された基礎モデル群へのアクセスが可能である。
論文 参考訳(メタデータ) (2024-02-28T03:51:02Z) - Visual Analytics for Generative Transformer Models [28.251218916955125]
本稿では,変換器を用いた生成ネットワークの解析を支援するための新しい視覚分析フレームワークを提案する。
我々のフレームワークは、トランスフォーマーベースのエンコーダデコーダモデルの解析をサポートするための最初のフレームワークの1つである。
論文 参考訳(メタデータ) (2023-11-21T08:15:01Z) - Jigsaw: Supporting Designers in Prototyping Multimodal Applications by
Assembling AI Foundation Models [5.239589676872304]
Jigsawは、基礎モデルを表現するメタファーとしてパズルピースを使用するプロトタイプシステムである。
設計者は、互換性のあるパズルを組み立てることで、様々なモダリティで異なる基礎モデル機能を組み合わせることができる。
論文 参考訳(メタデータ) (2023-10-12T17:57:57Z) - Multimodal Foundation Models: From Specialists to General-Purpose
Assistants [187.72038587829223]
研究のランドスケープには5つの中核的なトピックが含まれており、2つのクラスに分類されている。
対象読者は、コンピュータビジョンの研究者、大学院生、およびビジョン言語によるマルチモーダルコミュニティの専門家である。
論文 参考訳(メタデータ) (2023-09-18T17:56:28Z) - Automatically Discovering Novel Visual Categories with Self-supervised
Prototype Learning [68.63910949916209]
本稿では,大規模な画像収集において未知のカテゴリを識別することを目的とした,新しいカテゴリ発見(NCD)の課題に取り組む。
本稿では,プロトタイプ表現学習とプロトタイプ自己学習という,2つの主要な段階からなる適応型プロトタイプ学習手法を提案する。
本研究では,4つのベンチマークデータセットについて広範な実験を行い,提案手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-01T16:34:33Z) - SCENIC: A JAX Library for Computer Vision Research and Beyond [44.21002948898551]
ScenicはオープンソースのJAXライブラリで、コンピュータビジョン研究などのためのTransformerベースのモデルにフォーカスしている。
このツールキットの目的は、新しい視覚アーキテクチャとモデルの迅速な実験、プロトタイピング、研究を促進することである。
論文 参考訳(メタデータ) (2021-10-18T08:41:17Z) - Probing artificial neural networks: insights from neuroscience [6.7832320606111125]
神経科学は、近年の多くの研究を通じて、このようなモデルの使用法を開拓してきた。
我々は、調査を設計する際には、特定の研究目標が最重要の役割を担い、これらの目標を明示するために将来の探究研究を奨励する。
論文 参考訳(メタデータ) (2021-04-16T16:13:23Z) - Enhancing a Neurocognitive Shared Visuomotor Model for Object
Identification, Localization, and Grasping With Learning From Auxiliary Tasks [0.0]
本稿では,複数の物体を持つシーンにおいて,対象物を識別,局所化,把握するロボット作業のための統合型視覚神経モデルについて追従する。
我々のRetinanetベースのモデルは、生物学的にインスパイアされた発達アプローチで、視覚運動能力のエンドツーエンドのトレーニングを可能にします。
論文 参考訳(メタデータ) (2020-09-26T19:45:15Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。