論文の概要: Learning Constraints Directly from Network Data
- arxiv url: http://arxiv.org/abs/2506.23964v1
- Date: Mon, 30 Jun 2025 15:36:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.127892
- Title: Learning Constraints Directly from Network Data
- Title(参考訳): ネットワークデータから直接制約を学習する
- Authors: Hongyu Hè, Minhao Jin, Maria Apostolaki,
- Abstract要約: ルール抽出は、合成データの質を改善し、機械学習モデルの脆さを低減し、ネットワーク測定の意味的理解を改善する。
本稿では,生のネットワーク計測から命題論理の制約を直接学習するNetNomosを紹介する。
評価の結果、NetNomosは3時間以内で0.01%のデータポイントに関連するものを含むすべてのベンチマークルールを学習していることがわかった。
- 参考スコア(独自算出の注目度): 0.34137115855910755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network data conforms to a wide range of rules that arise from protocols, design principles, and deployment decisions (e.g., a packet's queuing delay must be less than its end-to-end delay). Formalizing such rules as logic constraints can (i) improve the quality of synthetic data, (ii) reduce the brittleness of machine learning (ML) models, and (iii) improve semantic understanding of network measurements. However, these benefits remain out of reach if rule extraction is manual or solely reliant on ML, as both approaches yield incomplete, unreliable, and/or inaccurate rules. This paper formulates rule extraction as a constraint modeling problem and introduces NetNomos that learns propositional logic constraints directly from raw network measurements. Constraint modeling in this domain is uniquely challenging due to the scale of the data, the inherent learning complexity and passive environment, and the lack of ground truth supervision. NetNomos addresses these challenges via a lattice-based search structured by constraint specificity and succinctness. Our approach reduces learning complexity from superquadratic to logarithmic and enables efficient traversal in combinatorial search space. Our evaluations on diverse network datasets show that NetNomos learns all benchmark rules, including those associated with as little as 0.01% of data points, in under three hours. In contrast, baseline methods discover less than 25% of the rules and require several days to run. Through three case studies, we show that: NetNomos (i) finds rule violations in the outputs of all seven synthetic traffic generators, hence can be used to assess and guide their generation process; (ii) detects semantic differences in traffic, hence can be used for anomaly detection; and (iii) automatically finds rules used for telemetry imputation, hence can support monitoring through inference.
- Abstract(参考訳): ネットワークデータは、プロトコル、設計原則、デプロイメント決定から生じる幅広いルールに準拠している(例えば、パケットのキュー遅延は、エンドツーエンドの遅延よりも小さくなければならない)。
論理的制約のような規則を形式化する
一 合成データの質を向上させること。
(II)機械学習(ML)モデルの脆さを低減し、
3)ネットワーク計測のセマンティックな理解を改善すること。
しかしながら、これらのメリットは、ルール抽出が手動であるか、あるいはMLにのみ依存している場合、到達できないままである。
本稿では,制約モデル問題としてルール抽出を定式化し,生のネットワーク計測から命題論理制約を直接学習するNetNomosを導入する。
この領域における制約モデリングは、データの規模、固有の学習の複雑さと受動的環境、基礎的な真実の監督の欠如など、独特な課題である。
NetNomosは、制約特異性と簡潔性によって構造化された格子ベースの検索を通じて、これらの課題に対処する。
提案手法は,超四分数から対数への学習の複雑さを低減し,組合せ探索空間における効率的なトラバースを実現する。
多様なネットワークデータセットに対する我々の評価は、NetNomosが3時間以内で0.01%のデータポイントに関連するものを含むすべてのベンチマークルールを学習していることを示している。
対照的に、ベースラインメソッドは25%未満のルールを発見し、実行に数日を要する。
NetNomosは3つのケーススタディを通じて、次のように示す。
一 合成トラフィック発生装置七種すべての出力に規則違反が認められるため、その生成過程の評価及び指導に使用することができる。
(ii)トラフィックのセマンティックな差異を検出し、そのため異常検出に使用できる。
(iii)テレメトリ計算に使用されるルールを自動的に見つけ、推論によるモニタリングをサポートする。
関連論文リスト
- Understanding Network Behaviors through Natural Language Question-Answering [11.90560159315518]
自然言語(NL)を用いたネットワーククエリのための新しいフレームワークであるNetMindを提案する。
本手法では,セマンティック・コヒーレンスを維持するために,ツリーベースの構成チャンキング戦略を導入する。
次に、ベンダー固有の設定を正規化するための中間表現として、統合されたファクトグラフを構築します。
論文 参考訳(メタデータ) (2025-10-24T08:54:29Z) - A General Framework for Property-Driven Machine Learning [1.0485739694839669]
逆行訓練は,小摂動に対するロバスト性を向上させるために,$epsilon$-cubesで行うことができることを示す。
コンピュータビジョン以外の領域は、一般化された超矩形を通してより柔軟な入力領域の仕様を必要とすることがある。
本稿では,これら2つの補完的アプローチを,プロパティ駆動機械学習の単一フレームワークに組み込む方法について検討する。
論文 参考訳(メタデータ) (2025-05-01T11:33:38Z) - Using Petri Nets as an Integrated Constraint Mechanism for Reinforcement Learning Tasks [3.105112058253643]
アルゴリズムへの信頼の欠如は、現実世界のドメインで制御するために強化学習(RL)エージェントを使用する場合の課題である。
本稿では,典型的なRLアプローチに対して3つの利点を持つペトリネット(PN)を用いたアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-05T13:04:06Z) - Generative AI-in-the-loop: Integrating LLMs and GPTs into the Next Generation Networks [11.509880721677156]
大規模言語モデル(LLM)が最近登場し、認知タスクにおけるほぼ人間レベルのパフォーマンスを実証している。
次世代AI-in-the-loop」の概念を提案する。
LLMとMLモデルを組み合わせることで、それぞれの能力を活用し、どちらのモデルよりも優れた結果が得られると考えています。
論文 参考訳(メタデータ) (2024-06-06T17:25:07Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - netFound: Foundation Model for Network Security [10.84029318509573]
本稿では,新しいトランスフォーマーベースネットワーク基盤モデルであるnetFoundを紹介する。
我々は、事前学習のために、豊富なラベルのないネットワークテレメトリデータに自己教師付き学習技術を採用する。
実運用環境では,netFoundが隠れたネットワークコンテキストを効果的にキャプチャすることを示す。
論文 参考訳(メタデータ) (2023-10-25T22:04:57Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Robust Online Learning over Networks [1.0249620437941]
この作業は、分散学習に固有のいくつかの一般的な課題を特に対象とする。
マルチプライヤの交互方向法(ADMM)の分散演算子理論(DOT)版を適用した。
DOT-ADMM演算子が計量部分正則であれば、凸学習問題のクラスに対する線形率に収束する。
論文 参考訳(メタデータ) (2023-09-01T15:18:05Z) - IF2Net: Innately Forgetting-Free Networks for Continual Learning [49.57495829364827]
継続的な学習は、以前に学んだ知識に干渉することなく、新しい概念を漸進的に吸収することができる。
ニューラルネットワークの特性に触発され,本研究は,IF2Net(Innately Forgetting-free Network)の設計方法について検討した。
IF2Netは、1つのネットワークがテスト時にタスクのIDを告げることなく、本質的に無制限のマッピングルールを学習することを可能にする。
論文 参考訳(メタデータ) (2023-06-18T05:26:49Z) - Networked Communication for Decentralised Agents in Mean-Field Games [59.01527054553122]
平均フィールドゲームフレームワークにネットワーク通信を導入する。
当社のアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを証明しています。
ネットワーク化されたアプローチは、障害の更新や人口規模の変化に対する堅牢性という点において、両方の選択肢に対して大きなメリットがあることが示されています。
論文 参考訳(メタデータ) (2023-06-05T10:45:39Z) - Mitigating Catastrophic Forgetting in Long Short-Term Memory Networks [7.291687946822538]
シーケンシャルデータに対する継続的な学習は多くの機械学習(ML)デプロイメントにおいて重要である。
LSTMネットワークは破滅的な忘れ込みに悩まされており、複数のタスクを継続的に学習する能力に制限がある。
LSTMネットワークにおける破滅的な忘れは、2つの斬新で容易に実装可能な方法で克服できることがわかった。
論文 参考訳(メタデータ) (2023-05-26T20:17:18Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - A new hope for network model generalization [66.5377859849467]
ネットワークトラフィックダイナミクスのための機械学習モデルを一般化することは、失われた原因とみなされる傾向がある。
_Transformer_と呼ばれるMLアーキテクチャは、これまで想像不可能だった他のドメインでの一般化を可能にした。
パケットトレースからネットワークダイナミクスを学習するためのNTT(Network Traffic Transformer)を提案する。
論文 参考訳(メタデータ) (2022-07-12T21:16:38Z) - Synergy and Symmetry in Deep Learning: Interactions between the Data,
Model, and Inference Algorithm [33.59320315666675]
我々は三重項(D,M,I)を統合システムとして研究し、次元の呪いを軽減する重要なシナジーを特定する。
これらの対称性がデータ分布と互換性がある場合、学習は最も効率的であることがわかった。
論文 参考訳(メタデータ) (2022-07-11T04:08:21Z) - Interpolation-based Contrastive Learning for Few-Label Semi-Supervised
Learning [43.51182049644767]
半教師付き学習(SSL)は,ラベルが限定された強力なモデルを構築する上で,有効な手法であることが長年証明されてきた。
摂動サンプルを元のものと類似した予測を強制する正規化に基づく手法が注目されている。
本稿では,学習ネットワークの埋め込みを誘導し,サンプル間の線形変化を誘導する新たな対照的な損失を提案する。
論文 参考訳(メタデータ) (2022-02-24T06:00:05Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Machine Learning for Intelligent Optical Networks: A Comprehensive
Survey [9.947717243638289]
コミュニケーションネットワークにおけるインテリジェンス向上は必須であり、人工知能(AI)と機械学習(ML)を取り入れている側面もいくつかある。
本稿では,知的光ネットワークにおけるMLの既存応用に関する詳細な調査を行う。
MLの応用は、光学ネットワーク制御と資源管理に分類され、光学ネットワークの監視と生存可能性に分類される。
論文 参考訳(メタデータ) (2020-03-11T13:51:38Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。