論文の概要: Sample Complexity of Opinion Formation on Networks with Linear Regression Models
- arxiv url: http://arxiv.org/abs/2311.02349v2
- Date: Wed, 13 Nov 2024 02:03:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 19:24:31.380393
- Title: Sample Complexity of Opinion Formation on Networks with Linear Regression Models
- Title(参考訳): 線形回帰モデルを用いたネットワーク上のオピニオン形成のサンプル複雑度
- Authors: Haolin Liu, Rajmohan Rajaraman, Ravi Sundaram, Anil Vullikanti, Omer Wasim, Haifeng Xu,
- Abstract要約: ネットワークにおける意見収束のサンプル複雑性について検討する。
我々のフレームワークは、認識された意見形成ゲームに基づいて構築されている。
人工ネットワークと実世界のネットワークの実証結果は、我々の理論的な発見を強く支えている。
- 参考スコア(独自算出の注目度): 36.75032460874647
- License:
- Abstract: Consider public health officials aiming to spread awareness about a new vaccine in a community interconnected by a social network. How can they distribute information with minimal resources, so as to avoid polarization and ensure community-wide convergence of opinion? To tackle such challenges, we initiate the study of sample complexity of opinion convergence in networks. Our framework is built on the recognized opinion formation game, where we regard the opinion of each agent as a data-derived model, unlike previous works that treat opinions as data-independent scalars. The opinion model for every agent is initially learned from its local samples and evolves game-theoretically as all agents communicate with neighbors and revise their models towards an equilibrium. Our focus is on the sample complexity needed to ensure that the opinions converge to an equilibrium such that the final model of every agent has low generalization error. Our paper has two main technical results. First, we present a novel polynomial time optimization framework to quantify the total sample complexity for arbitrary networks, when the underlying learning problem is (generalized) linear regression. Second, we leverage this optimization to study the network gain which measures the improvement of sample complexity when learning over a network compared to that in isolation. Towards this end, we derive network gain bounds for various network classes including cliques, star graphs, and random regular graphs. Additionally, our framework provides a method to study sample distribution within the network, suggesting that it is sufficient to allocate samples inversely to the degree. Empirical results on both synthetic and real-world networks strongly support our theoretical findings.
- Abstract(参考訳): ソーシャル・ネットワークが連携する地域社会において、新たなワクチンに対する意識を広めることを目指す公衆衛生担当者について検討する。
偏極を避け、コミュニティ全体の意見の収束を確保するために、最小限のリソースで情報を分配するにはどうすればいいのか?
このような課題に対処するために、ネットワークにおける意見収束のサンプル複雑性の研究を開始する。
このフレームワークは認識された意見形成ゲームに基づいて構築されており、各エージェントの意見は、従来の意見がデータに依存しないスカラーとして扱う作業とは異なり、データ由来のモデルとみなす。
全てのエージェントの意見モデルは、まずその局所的なサンプルから学習され、すべてのエージェントが隣人と通信し、彼らのモデルを均衡に向けて修正するため、ゲーム理論的に進化する。
我々の焦点は、すべてのエージェントの最終モデルが一般化誤差が低いように、意見が平衡に収束することを保証するために必要なサンプルの複雑さである。
我々の論文には2つの主要な技術的結果がある。
まず、基礎となる学習問題が(一般化)線形回帰である場合、任意のネットワークに対する全サンプルの複雑さを定量化する新しい多項式時間最適化フレームワークを提案する。
第2に、この最適化を活用して、ネットワーク上の学習におけるサンプルの複雑さの改善を分離して測定するネットワークゲインについて検討する。
この目的のために、クリッド、スターグラフ、ランダム正規グラフを含む様々なネットワーククラスに対するネットワークゲインバウンドを導出する。
さらに、本フレームワークは、ネットワーク内のサンプル分布を研究する方法を提供し、その程度に逆らってサンプルを割り当てるだけで十分であることを示す。
人工ネットワークと実世界のネットワークの実証結果は、我々の理論的な発見を強く支えている。
関連論文リスト
- Adversarial Examples in the Physical World: A Survey [38.931165051026824]
ディープニューラルネットワーク(DNN)は、敵の例に高い脆弱性を示し、広範なセキュリティ上の懸念を提起している。
身体的敵対例(PAEs)は、重大な課題と安全性上の懸念を呈する。
本報告では,PAEの具体的な特徴に基づいた包括的分析・分類の枠組みについて述べる。
我々は、PAEを新しく、徹底的に、体系的に理解し、堅牢な対人学習の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-11-01T06:55:09Z) - Transcending the Attention Paradigm: Representation Learning from
Geospatial Social Media Data [1.8311821879979955]
本研究では,分散パターンの源泉としてソーシャルメディアデータを調べることで,パフォーマンスベンチマークのパラダイムに挑戦する。
これらの抽象的関係を適切に表現するために、この研究では、経験的ソーシャルメディアコーパスを要素成分に分解し、人口密度の場所をまたいだ20億以上のツイートを分析した。
論文 参考訳(メタデータ) (2023-10-09T03:27:05Z) - Unsupervised Learning via Network-Aware Embeddings [0.0]
ノード属性間のネットワーク距離を推定することにより,ネットワーク対応の埋め込みを作成する方法を示す。
提案手法は完全オープンソースであり, 論文中のすべての結果を再現するためのデータとコードは利用可能である。
論文 参考訳(メタデータ) (2023-09-19T08:17:48Z) - The No Free Lunch Theorem, Kolmogorov Complexity, and the Role of Inductive Biases in Machine Learning [80.1018596899899]
ニューラルネットワークモデルは、Kolmogorov複雑性を使って形式化された、同じ好みを共有している、と我々は主張する。
実験の結果、事前訓練された言語モデルでも、低複雑さのシーケンスを生成するのが好まれることがわかった。
これらの観察は、ますます小さな機械学習モデルで異なるように見える問題を統一する深層学習の傾向を正当化する。
論文 参考訳(メタデータ) (2023-04-11T17:22:22Z) - An Information-Theoretic Framework for Supervised Learning [22.280001450122175]
後悔とサンプルの複雑さという独自の概念を持つ新しい情報理論フレームワークを提案する。
本稿では、ReLUアクティベーションユニットを用いたディープニューラルネットワークによって生成されたデータから学習する際のサンプルの複雑さについて検討する。
我々は、ランダムな単層ニューラルネットワークの実験的な解析により、理論結果を裏付けることで結論付ける。
論文 参考訳(メタデータ) (2022-03-01T05:58:28Z) - Towards Understanding Theoretical Advantages of Complex-Reaction
Networks [77.34726150561087]
パラメータ数を用いて,関数のクラスを複素反応ネットワークで近似できることを示す。
経験的リスク最小化については,複素反応ネットワークの臨界点集合が実数値ネットワークの固有部分集合であることを示す。
論文 参考訳(メタデータ) (2021-08-15T10:13:49Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Deep Generative Modeling in Network Science with Applications to Public
Policy Research [0.0]
ネットワークデータは、量的かつデータ駆動の公共政策研究にますます利用されている。
深層生成法は、マイクロシミュレーションやエージェントベースモデルに有用なリアルな合成ネットワークを生成するために使用できる。
疫学モデルで一般的に使用される大規模社会接触ネットワークに適用可能な,新たな生成フレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-15T16:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。