論文の概要: Disclosure of a Neuromorphic Starter Kit
- arxiv url: http://arxiv.org/abs/2211.04526v1
- Date: Tue, 8 Nov 2022 19:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:30:00.969630
- Title: Disclosure of a Neuromorphic Starter Kit
- Title(参考訳): ニューロモルフィックスターターキットの開示
- Authors: James S. Plank and Bryson Gullett and Adam Z. Foshie and Garrett S.
Rose and Catherine D. Schuman
- Abstract要約: Neuromorphic Starter Kitは、脳をベースにした、ニューロモルフィックなプロセッサとハードウェア環境の研究、探索、実世界のデモを行う様々な研究グループを支援するように設計されている。
試作キットが開発・試験され,その背景にあるモチベーション,設計と構成,プロトタイプの物理実演が説明されている。
- 参考スコア(独自算出の注目度): 0.4199844472131921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a Neuromorphic Starter Kit, which has been designed to
help a variety of research groups perform research, exploration and real-world
demonstrations of brain-based, neuromorphic processors and hardware
environments. A prototype kit has been built and tested. We explain the
motivation behind the kit, its design and composition, and a prototype physical
demonstration.
- Abstract(参考訳): 本稿では,脳をベースとした,ニューロモーフィックなプロセッサとハードウェア環境の研究,探索,実世界の実演を行う研究グループを支援するために設計されたNeuromorphic Starter Kitを提案する。
プロトタイプキットが作られ、テストされています。
このキットの背景にあるモチベーション、設計と構成、そしてプロトタイプの物理実演について説明する。
関連論文リスト
- Computation-Efficient Era: A Comprehensive Survey of State Space Models in Medical Image Analysis [8.115549269867403]
状態空間モデル(SSM)は、最近、シーケンシャルなモデリングと視覚的表現学習において大きな関心を集めている。
コンピュータービジョンの進歩に乗じて、医療画像はMambaモデルによる新しい時代を告げた。
論文 参考訳(メタデータ) (2024-06-05T16:29:03Z) - Endora: Video Generation Models as Endoscopy Simulators [53.72175969751398]
本稿では,臨床内視鏡シーンをシミュレートする医用ビデオを作成するための革新的な手法であるモデルを紹介する。
また、ビデオ生成モデルを用いた内視鏡シミュレーションのための最初の公開ベンチマークを開拓した。
Endoraは、臨床内視鏡研究のための生成AIの展開において、注目すべきブレークスルーとなる。
論文 参考訳(メタデータ) (2024-03-17T00:51:59Z) - OpenMEDLab: An Open-source Platform for Multi-modality Foundation Models
in Medicine [55.29668193415034]
マルチモダリティ基盤モデルのためのオープンソースプラットフォームであるOpenMEDLabについて紹介する。
これは、最前線臨床および生体情報学応用のための大規模言語とビジョンモデルを刺激し、微調整する先駆的な試みの解決策をカプセル化する。
様々な医用画像のモダリティ、臨床テキスト、タンパク質工学など、事前訓練された基礎モデル群へのアクセスが可能である。
論文 参考訳(メタデータ) (2024-02-28T03:51:02Z) - Visual Analytics for Generative Transformer Models [28.251218916955125]
本稿では,変換器を用いた生成ネットワークの解析を支援するための新しい視覚分析フレームワークを提案する。
我々のフレームワークは、トランスフォーマーベースのエンコーダデコーダモデルの解析をサポートするための最初のフレームワークの1つである。
論文 参考訳(メタデータ) (2023-11-21T08:15:01Z) - Jigsaw: Supporting Designers to Prototype Multimodal Applications by Chaining AI Foundation Models [4.435190193476497]
Jigsawは、基礎モデルを表現するメタファーとしてパズルピースを使用するプロトタイプシステムである。
設計者は、互換性のあるパズルを組み立てることで、様々なモダリティで異なる基礎モデル機能を組み合わせることができる。
論文 参考訳(メタデータ) (2023-10-12T17:57:57Z) - Automatically Discovering Novel Visual Categories with Self-supervised
Prototype Learning [68.63910949916209]
本稿では,大規模な画像収集において未知のカテゴリを識別することを目的とした,新しいカテゴリ発見(NCD)の課題に取り組む。
本稿では,プロトタイプ表現学習とプロトタイプ自己学習という,2つの主要な段階からなる適応型プロトタイプ学習手法を提案する。
本研究では,4つのベンチマークデータセットについて広範な実験を行い,提案手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-01T16:34:33Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - SCENIC: A JAX Library for Computer Vision Research and Beyond [44.21002948898551]
ScenicはオープンソースのJAXライブラリで、コンピュータビジョン研究などのためのTransformerベースのモデルにフォーカスしている。
このツールキットの目的は、新しい視覚アーキテクチャとモデルの迅速な実験、プロトタイピング、研究を促進することである。
論文 参考訳(メタデータ) (2021-10-18T08:41:17Z) - Probing artificial neural networks: insights from neuroscience [6.7832320606111125]
神経科学は、近年の多くの研究を通じて、このようなモデルの使用法を開拓してきた。
我々は、調査を設計する際には、特定の研究目標が最重要の役割を担い、これらの目標を明示するために将来の探究研究を奨励する。
論文 参考訳(メタデータ) (2021-04-16T16:13:23Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。