論文の概要: Enabling Software Defined Optical Networks
- arxiv url: http://arxiv.org/abs/2402.11695v1
- Date: Sun, 18 Feb 2024 19:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 19:34:11.226198
- Title: Enabling Software Defined Optical Networks
- Title(参考訳): ソフトウェア定義光ネットワークの実現
- Authors: Deven Panchal
- Abstract要約: 論文では、SDONの必要性を調査し、ハードウェアを含むSDONソリューションがどのようなものかを説明する。
また、GMPLSの制限を克服するために、このソリューションの一部としてOpenFlowをどのように使用できるかについても説明している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper gives an overview of Software Defined Optical Networks or SDONs
and how they can be implemented. It traces the evolution of Optical networks
upto GMPLS and traces the idea of SDN and builds upto OpenFlow. The paper
explores the need for SDONs and explains what a SDON solution could look like,
including the hardware. It also seeks to explain how OpenFlow could be used as
a part of this solution to overcome the limitations of GMPLS.
- Abstract(参考訳): 本稿では,Software Defined Optical Networks(SDON)の概要と実装方法について述べる。
これは光ネットワークの進化をGMPLSまで遡り、SDNのアイデアを辿り、OpenFlowに構築する。
論文では、SDONの必要性を調査し、ハードウェアを含むSDONソリューションがどのようなものかを説明する。
また、GMPLSの制限を克服するために、このソリューションの一部としてOpenFlowをどのように使用できるかについても説明している。
関連論文リスト
- Hierarchical Graph Pattern Understanding for Zero-Shot VOS [102.21052200245457]
本稿では、ゼロショットビデオオブジェクトセグメンテーション(ZS-VOS)のための新しい階層型グラフニューラルネットワーク(GNN)アーキテクチャを提案する。
構造的関係を捕捉するGNNの強い能力にインスパイアされたHGPUは、運動キュー(すなわち光の流れ)を革新的に活用し、ターゲットフレームの隣人からの高次表現を強化する。
論文 参考訳(メタデータ) (2023-12-15T04:13:21Z) - FlowX: Towards Explainable Graph Neural Networks via Message Flows [59.025023020402365]
グラフニューラルネットワーク(GNN)の動作メカニズム解明へのステップとして,その説明可能性について検討する。
本稿では,重要なメッセージフローを識別してGNNを説明するために,FlowXと呼ばれる新しい手法を提案する。
そこで我々は,多様な説明対象に向けて,フロースコアを学習するための情報制御学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-26T22:48:15Z) - OpenGlue: Open Source Graph Neural Net Based Pipeline for Image Matching [3.2307366446033945]
OpenGlueは、SuperGlue citesarlin20superglueにインスパイアされた、画像マッチングのための無償のオープンソースフレームワークである。
局所的特徴尺度,向き,アフィン幾何などの付加的な幾何学的情報を含めれば,利用可能な場合,OpenGlue整形器の性能が大幅に向上することを示す。
さまざまなローカル機能のためのコードと事前訓練されたOpenGlueモデルが公開されている。
論文 参考訳(メタデータ) (2022-04-19T13:11:16Z) - DeepLab2: A TensorFlow Library for Deep Labeling [118.95446843615049]
DeepLab2は、コンピュータビジョンにおける一般的な高密度ピクセル予測問題に対するディープラベリングのためのライブラリである。
DeepLab2には、トレーニング済みのチェックポイントとモデルトレーニングと評価コードを備えた、最近開発したDeepLabモデルのバリエーションがすべて含まれています。
DeepLab2の有効性を示すために、Axial-SWideRNetをネットワークバックボーンとして使用したPanoptic-DeepLabは、Cityscaspes検証セット上で68.0% PQまたは83.5% mIoUを達成した。
論文 参考訳(メタデータ) (2021-06-17T18:04:53Z) - Deploying deep learning in OpenFOAM with TensorFlow [2.1874189959020423]
このモジュールはC APIで構築され、実行時にリンク可能なアプリケーションとしてOpenFOAMに統合される。
特に、私たちの定式化は、ニューラルネットワークアーキテクチャのタイプに関する制限を妨げます。
さらに、提案するモジュールは、計算流体力学と機械学習のための、オープンソースで統一的で透明なフレームワークへの道筋を概説している。
論文 参考訳(メタデータ) (2020-12-01T23:59:30Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Neural Network Compression Framework for fast model inference [59.65531492759006]
我々は、ニューラルネットワーク圧縮フレームワーク(NNCF)と呼ばれる、微調整によるニューラルネットワーク圧縮のための新しいフレームワークを提案する。
様々なネットワーク圧縮手法の最近の進歩を活用し、空間性、量子化、双項化などのいくつかの実装を行っている。
フレームワークは、トレーニングサンプル内に提供され、あるいは既存のトレーニングコードにシームレスに統合可能なスタンドアロンパッケージとして使用することができる。
論文 参考訳(メタデータ) (2020-02-20T11:24:01Z) - A C Code Generator for Fast Inference and Simple Deployment of
Convolutional Neural Networks on Resource Constrained Systems [0.32622301272834514]
本稿では、訓練されたCNNから生成するニューラルネットワーク生成器(NNCG)に、単一関数で推論をカプセル化するプレーンなCコードファイルを提案する。
既存のプロジェクトに簡単に組み込むことができ、依存関係の欠如のため、通常はクロスコンパイルが可能である。
論文 参考訳(メタデータ) (2020-01-14T09:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。