論文の概要: Networked Information Aggregation via Machine Learning
- arxiv url: http://arxiv.org/abs/2507.09683v1
- Date: Sun, 13 Jul 2025 15:42:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.757783
- Title: Networked Information Aggregation via Machine Learning
- Title(参考訳): 機械学習によるネットワーク情報集約
- Authors: Michael Kearns, Aaron Roth, Emily Ryu,
- Abstract要約: 有向非巡回グラフ(DAG)に学習エージェントを埋め込む分散学習問題について検討する。
DAGでは,情報集約が十分に長い経路で発生することが判明した。
- 参考スコア(独自算出の注目度): 6.837469236705465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a distributed learning problem in which learning agents are embedded in a directed acyclic graph (DAG). There is a fixed and arbitrary distribution over feature/label pairs, and each agent or vertex in the graph is able to directly observe only a subset of the features -- potentially a different subset for every agent. The agents learn sequentially in some order consistent with a topological sort of the DAG, committing to a model mapping observations to predictions of the real-valued label. Each agent observes the predictions of their parents in the DAG, and trains their model using both the features of the instance that they directly observe, and the predictions of their parents as additional features. We ask when this process is sufficient to achieve \emph{information aggregation}, in the sense that some agent in the DAG is able to learn a model whose error is competitive with the best model that could have been learned (in some hypothesis class) with direct access to \emph{all} features, despite the fact that no single agent in the network has such access. We give upper and lower bounds for this problem for both linear and general hypothesis classes. Our results identify the \emph{depth} of the DAG as the key parameter: information aggregation can occur over sufficiently long paths in the DAG, assuming that all of the relevant features are well represented along the path, and there are distributions over which information aggregation cannot occur even in the linear case, and even in arbitrarily large DAGs that do not have sufficient depth (such as a hub-and-spokes topology in which the spoke vertices collectively see all the features). We complement our theoretical results with a comprehensive set of experiments.
- Abstract(参考訳): 本研究では,学習エージェントを有向非巡回グラフ(DAG)に埋め込む分散学習問題について検討する。
機能/ラベルペアに対して固定的かつ任意の分布が存在し、グラフ内の各エージェントまたは頂点は、機能のサブセット – エージェント毎に異なるサブセット – を直接観察することができる。
エージェントは、ある順序でDAGのトポロジカルな種類と整合して連続的に学習し、実数値ラベルの予測にモデルマッピングをコミットする。
各エージェントは、DAG内の両親の予測を観察し、直接観察するインスタンスの特徴と、両親の予測を付加的な特徴としてトレーニングする。
このプロセスが \emph{information aggregate} を達成するのに十分であるかどうかを尋ねると、DAG のエージェントは、ネットワーク内の1つのエージェントがそのようなアクセスを持っていないという事実にもかかわらず、(ある仮説クラスにおいて) 学習可能な最高のモデルと競合するモデルを学ぶことができる。
線形クラスと一般クラスの両方に対して、この問題に対する上限と下限を与える。
我々は,DAGの「emph{depth}」を重要なパラメータとして挙げた: 情報集約はDAG内の十分長い経路上で起こり,関連する全ての特徴が経路に沿って適切に表現されていることを仮定し,情報集約が線形の場合においても起こらない分布や,十分な深さを持たない任意の大きさのDAG(例えば,音声頂点が全特徴を総括的に見るハブ・アンド・スポークストポロジー)においても,その分布が存在する。
理論的結果を総合的な実験で補完する。
関連論文リスト
- Data-Driven Self-Supervised Graph Representation Learning [0.0]
自己教師付きグラフ表現学習(英: Self-supervised graph representation learning, SSGRL)は、手動ラベリングの削減や回避に使用される表現学習パラダイムである。
本稿では,グラフに符号化された信号から適切なグラフ拡張を自動的に学習する,新しいデータ駆動型SSGRL手法を提案する。
ノード分類とグラフ特性予測に関する広範な実験を行う。
論文 参考訳(メタデータ) (2024-12-24T10:04:19Z) - Zero-shot Generalist Graph Anomaly Detection with Unified Neighborhood Prompts [21.05107001235223]
グラフ異常検出(GAD)は、通常のパターンから著しく逸脱したグラフ内のノードを特定することを目的としている。
既存のGADメソッドは、1-model-for-one-datasetアプローチである。
ゼロショット・ジェネラリストの新規なGADアプローチUNPromptを提案する。
論文 参考訳(メタデータ) (2024-10-18T22:23:59Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - ADAMM: Anomaly Detection of Attributed Multi-graphs with Metadata: A
Unified Neural Network Approach [39.211176955683285]
有向多重グラフを処理する新しいグラフニューラルネットワークモデルADAMMを提案する。
ADAMMは、教師なしの異常検出目的を通じてメタデータとグラフレベルの表現学習を融合する。
論文 参考訳(メタデータ) (2023-11-13T14:19:36Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - Reinforcement Causal Structure Learning on Order Graph [18.344249064559087]
本稿では,RCL-OG(Reinforcement Causal Structure Learning on Order Graph)を提案する。
RCL-OGはまず、順序の後方分布を近似する新しい報酬機構を用いて強化学習を定義する。
異なる順序の後方確率を計算する。
論文 参考訳(メタデータ) (2022-11-22T10:29:25Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。