論文の概要: Learning Broadcast Protocols
- arxiv url: http://arxiv.org/abs/2306.14284v2
- Date: Mon, 11 Dec 2023 21:26:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 20:06:07.290294
- Title: Learning Broadcast Protocols
- Title(参考訳): 放送プロトコルの学習
- Authors: Dana Fisman, Noa Izsak, Swen Jacobs
- Abstract要約: 任意の数のプロセスで分散システムを学習する問題に初めて注目する。
細かな放送プロトコルを考えると、これらは有限カットオフと隠蔽状態のない放送プロトコルである。
試料が十分に完全であれば、微細なBPと一致する試料から正しいBPを推測し、最小の等価BPを推定できる学習アルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 1.9336815376402723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of learning a computational model from examples has been
receiving growing attention. For the particularly challenging problem of
learning models of distributed systems, existing results are restricted to
models with a fixed number of interacting processes. In this work we look for
the first time (to the best of our knowledge) at the problem of learning a
distributed system with an arbitrary number of processes, assuming only that
there exists a cutoff, i.e., a number of processes that is sufficient to
produce all observable behaviors. Specifically, we consider fine broadcast
protocols, these are broadcast protocols (BPs) with a finite cutoff and no
hidden states. We provide a learning algorithm that can infer a correct BP from
a sample that is consistent with a fine BP, and a minimal equivalent BP if the
sample is sufficiently complete. On the negative side we show that (a)
characteristic sets of exponential size are unavoidable, (b) the consistency
problem for fine BPs is NP hard, and (c) that fine BPs are not polynomially
predictable.
- Abstract(参考訳): 実例から計算モデルを学習する問題は注目されている。
分散システムの学習モデルにおける特に難しい問題として、既存の結果は一定の数の相互作用プロセスを持つモデルに限定されている。
この作業では、任意の数のプロセスで分散システムを学習する問題、すなわち、すべての観察可能な振る舞いを生み出すのに十分な多数のプロセスが存在することを仮定して、初めて(私たちの知識を最大限に活用するために)検討します。
具体的には、細かなブロードキャストプロトコルを考慮し、これらは有限カットオフと隠蔽状態のないブロードキャストプロトコル(BP)である。
試料が十分に完成すれば、微細なBPと一致する試料から正しいBPを推測し、最小の等価BPを推定できる学習アルゴリズムを提供する。
負の面では、
(a)指数サイズの特性集合は避けられない。
b)微細BPの整合性問題はNP困難であり、
(c)細いBPは多項式的に予測できない。
関連論文リスト
- Circular Belief Propagation for Approximate Probabilistic Inference [0.07282584715927627]
Belief Propagation (BP) は、確率分布を表すグラフのノード間でメッセージを渡す単純な確率的推論アルゴリズムである。
本稿では,BPの拡張であるCircular Belief Propagation (CBP)を提案する。
CBP が BP をはるかに上回り,従来提案したアルゴリズムと比較して優れた性能を示すバイナリ確率グラフを含む数値実験を行った。
論文 参考訳(メタデータ) (2024-03-17T15:59:39Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Deep Attentive Belief Propagation: Integrating Reasoning and Learning
for Solving Constraint Optimization Problems [24.63675651321079]
BP(Breief Propagation)は、グラフィカルモデル上の様々な推論タスクのための重要なメッセージパッシングアルゴリズムである。
本研究では, DABP をスムーズなソリューションコストで自己教師付き学習する手法を提案する。
我々のモデルは最先端のベースラインを大きく上回る。
論文 参考訳(メタデータ) (2022-09-24T13:03:46Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Predictive Coding Can Do Exact Backpropagation on Convolutional and
Recurrent Neural Networks [40.51949948934705]
予測符号化ネットワーク(PCN)は、脳内の情報処理に影響を及ぼすモデルである。
BPは現代の機械学習において最も成功した学習方法と考えられている。
生物学的に妥当なアルゴリズムは複雑なアーキテクチャ上でBPの精度を正確に再現できることを示す。
論文 参考訳(メタデータ) (2021-03-05T14:57:01Z) - Belief Propagation Neural Networks [103.97004780313105]
信念伝播ニューラルネットワーク(BPNN)を紹介する。
BPNNは因子グラフ上で動作し、信念伝播(BP)を一般化する
BPNNはIsingモデル上で1.7倍高速に収束し、より厳密な境界を提供することを示す。
挑戦的なモデルカウント問題に関して、BPNNは最先端の手作り手法の100倍の速さを推定する。
論文 参考訳(メタデータ) (2020-07-01T07:39:51Z) - $\alpha$ Belief Propagation for Approximate Inference [16.258304175469917]
BP(Belief propagation)アルゴリズムは、グラフィカルモデルにおける推論のためのメッセージパッシング手法として広く用いられている。
局所化$alpha$-divergenceの最小化によって動機付けられた解釈可能な信念伝播アルゴリズムを導出する。
その結果、$alpha$-BPは標準BPを一般化することがわかった。
論文 参考訳(メタデータ) (2020-06-27T13:32:06Z) - Sample-Efficient Reinforcement Learning of Undercomplete POMDPs [91.40308354344505]
この研究は、これらの硬度障壁が、部分観測可能決定過程(POMDP)の豊かで興味深いサブクラスに対する効率的な強化学習を妨げないことを示している。
提案手法は, 観測回数が潜伏状態の数よりも大きく, 探索が学習に不可欠であり, 先行研究と区別できるような, エピソード有限不完全POMDPに対するサンプル効率アルゴリズムOOM-UCBを提案する。
論文 参考訳(メタデータ) (2020-06-22T17:58:54Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。