論文の概要: Cooperation of Experts: Fusing Heterogeneous Information with Large Margin
- arxiv url: http://arxiv.org/abs/2505.20853v2
- Date: Wed, 28 May 2025 04:31:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 12:33:41.775328
- Title: Cooperation of Experts: Fusing Heterogeneous Information with Large Margin
- Title(参考訳): 専門家の協力:大マルジンによる異種情報の融合
- Authors: Shuo Wang, Shunyang Huang, Jinghui Yuan, Zhixiang Shen, Zhao Kang,
- Abstract要約: CoE(Cooperation of Experts)フレームワークは、マルチタイプ情報を統一された異種多重ネットワークにエンコードする。
このフレームワークでは、専用のエンコーダがドメイン固有の専門家として機能し、それぞれが特定の意味空間における異なる関係パターンの学習に特化している。
- 参考スコア(独自算出の注目度): 11.522412489437702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fusing heterogeneous information remains a persistent challenge in modern data analysis. While significant progress has been made, existing approaches often fail to account for the inherent heterogeneity of object patterns across different semantic spaces. To address this limitation, we propose the Cooperation of Experts (CoE) framework, which encodes multi-typed information into unified heterogeneous multiplex networks. By overcoming modality and connection differences, CoE provides a powerful and flexible model for capturing the intricate structures of real-world complex data. In our framework, dedicated encoders act as domain-specific experts, each specializing in learning distinct relational patterns in specific semantic spaces. To enhance robustness and extract complementary knowledge, these experts collaborate through a novel large margin mechanism supported by a tailored optimization strategy. Rigorous theoretical analyses guarantee the framework's feasibility and stability, while extensive experiments across diverse benchmarks demonstrate its superior performance and broad applicability. Our code is available at https://github.com/strangeAlan/CoE.
- Abstract(参考訳): 異種情報を融合することは、現代のデータ分析において永続的な課題である。
かなりの進歩があったが、既存のアプローチでは、異なる意味空間にわたるオブジェクトパターンの固有の不均一性を説明できないことが多い。
この制限に対処するため,マルチタイプ情報を統一された異種多重ネットワークにエンコードするCoE(Cooperation of Experts)フレームワークを提案する。
モダリティと接続差を克服することで、CoEは現実世界の複雑なデータの複雑な構造を捉えるための強力で柔軟なモデルを提供する。
このフレームワークでは、専用のエンコーダがドメイン固有の専門家として機能し、それぞれが特定の意味空間における異なる関係パターンの学習に特化している。
強靭性を高め、補完的な知識を抽出するために、これらの専門家は、最適化戦略によって支持される新しい大きなマージンメカニズムを通じて協力する。
厳密な理論的分析により、フレームワークの実用性と安定性が保証される一方、様々なベンチマークにわたる広範な実験は、その優れた性能と幅広い適用性を示している。
私たちのコードはhttps://github.com/strangeAlan/CoE.comで利用可能です。
関連論文リスト
- NEXT: Multi-Grained Mixture of Experts via Text-Modulation for Multi-Modal Object Re-ID [21.162847644106435]
属性信頼度に基づく信頼性の高いマルチモーダルキャプション生成手法を提案する。
また,マルチモーダルオブジェクト再識別のためのテキスト変調による多粒度エキスパート混在型 ReID フレームワーク NEXT を提案する。
論文 参考訳(メタデータ) (2025-05-26T13:52:28Z) - CoCoAFusE: Beyond Mixtures of Experts via Model Fusion [3.501882879116058]
CoCoAFusEはMixtures of Experts(MoEs)の背景にある哲学に基づいている
我々の定式化は、専門家の分布の融合を考えることによって、古典的な専門家の混合を延長する。
この新しいアプローチは、数値的な例を動機付ける一連のスイートと、実際のデータのコレクションで広く紹介されている。
論文 参考訳(メタデータ) (2025-05-02T08:35:04Z) - UniversalRAG: Retrieval-Augmented Generation over Corpora of Diverse Modalities and Granularities [53.76854299076118]
UniversalRAGは異種情報源からの知識を多様さと粒度で検索・統合するための新しいRAGフレームワークである。
本稿では,最も適切なモダリティ固有コーパスを動的に識別し,その内部でターゲット検索を行うモダリティ対応ルーティング機構を提案する。
マルチモーダル性にまたがる8つのベンチマークでUniversalRAGを検証する。
論文 参考訳(メタデータ) (2025-04-29T13:18:58Z) - Convergence Rates for Softmax Gating Mixture of Experts [78.3687645289918]
機械学習モデルの効率性とスケーラビリティを向上するための効果的なフレームワークとして、Mixture of Expert (MoE)が登場した。
MoEの成功の中心は、適応的なソフトマックスゲーティングメカニズムであり、各専門家の入力に対する関連性を決定する責任を負い、それぞれの重みを動的に専門家に割り当てる。
標準ソフトマックスゲーティングまたはその変種を備えたMoEの下で,パラメータ推定と専門家推定の収束解析を行い,密度とスパースゲーティングと階層ソフトマックスゲーティングを含む。
論文 参考訳(メタデータ) (2025-03-05T06:11:24Z) - GSSF: Generalized Structural Sparse Function for Deep Cross-modal Metric Learning [51.677086019209554]
ペアワイド類似性学習のためのモダリティ間の強力な関係を捕捉する汎用構造スパースを提案する。
距離メートル法は、対角線とブロック対角線の2つの形式を微妙にカプセル化する。
クロスモーダルと2つの余分なユニモーダル検索タスクの実験は、その優位性と柔軟性を検証した。
論文 参考訳(メタデータ) (2024-10-20T03:45:50Z) - Multi-Source Knowledge Pruning for Retrieval-Augmented Generation: A Benchmark and Empirical Study [46.55831783809377]
大規模言語モデル(LLM)の幻覚を緩和するための効果的なアプローチとして,検索拡張世代(RAG)がますます認識されている。
PruningRAGはマルチグラニュラリティ・プルーニング・ストラテジーを用いて,関連コンテキストをより効果的に統合し,誤った情報に対するネガティブな影響を軽減するためのプラグアンドプレイRAGフレームワークである。
論文 参考訳(メタデータ) (2024-09-03T03:31:37Z) - Discovering Common Information in Multi-view Data [35.37807004353416]
多視点データから共通情報を計算するための革新的で数学的に厳密な定義を導入する。
我々は,共通情報と一意情報の両方を捉えるために,教師付き多視点学習フレームワークを開発した。
論文 参考訳(メタデータ) (2024-06-21T10:47:06Z) - Generalization Error Analysis for Sparse Mixture-of-Experts: A Preliminary Study [65.11303133775857]
Mixture-of-Experts (MoE)計算アマルガメート予測
Sparse MoEは、限られた数、あるいは1つの専門家だけを選択的に扱うことで、経験的に保存され、時にはパフォーマンスが向上する一方で、オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-03-26T05:48:02Z) - Enhancing Human-like Multi-Modal Reasoning: A New Challenging Dataset
and Comprehensive Framework [51.44863255495668]
マルチモーダル推論は、人間のような知性を示す人工知能システムの追求において重要な要素である。
提案するマルチモーダル推論(COCO-MMR)データセットは,オープンエンド質問の集合を包含する新しいデータセットである。
画像とテキストエンコーダを強化するために,マルチホップ・クロスモーダル・アテンションや文レベルのコントラスト学習などの革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。