論文の概要: OmniSage: Large Scale, Multi-Entity Heterogeneous Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2504.17811v2
- Date: Thu, 01 May 2025 16:17:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.506436
- Title: OmniSage: Large Scale, Multi-Entity Heterogeneous Graph Representation Learning
- Title(参考訳): OmniSage: 大規模・マルチエンティティな異種グラフ表現学習
- Authors: Anirudhan Badrinath, Alex Yang, Kousik Rajesh, Prabhat Agarwal, Jaewon Yang, Haoyu Chen, Jiajing Xu, Charles Rosenberg,
- Abstract要約: 本稿では,Pinterestのさまざまなアプリケーションに対するユニバーサル表現を学習する大規模表現フレームワークであるOmniSageについて述べる。
OmniSageのトレーニングと推論を支援するために、数十億のノードを持つPinterestグラフをサポートする効率的なインフラストラクチャを開発しました。
OmniSageが生成した普遍的な表現は、Pinterestのユーザエクスペリエンスを著しく向上させ、5つのアプリケーションでサイト全体のリポジトリ(セーブ)がほぼ2.5%増加した。
- 参考スコア(独自算出の注目度): 13.726657406055207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representation learning, a task of learning latent vectors to represent entities, is a key task in improving search and recommender systems in web applications. Various representation learning methods have been developed, including graph-based approaches for relationships among entities, sequence-based methods for capturing the temporal evolution of user activities, and content-based models for leveraging text and visual content. However, the development of a unifying framework that integrates these diverse techniques to support multiple applications remains a significant challenge. This paper presents OmniSage, a large-scale representation framework that learns universal representations for a variety of applications at Pinterest. OmniSage integrates graph neural networks with content-based models and user sequence models by employing multiple contrastive learning tasks to effectively process graph data, user sequence data, and content signals. To support the training and inference of OmniSage, we developed an efficient infrastructure capable of supporting Pinterest graphs with billions of nodes. The universal representations generated by OmniSage have significantly enhanced user experiences on Pinterest, leading to an approximate 2.5% increase in sitewide repins (saves) across five applications. This paper highlights the impact of unifying representation learning methods, and we will open source the OmniSage code by the time of publication.
- Abstract(参考訳): 表現学習(representation learning)とは、Webアプリケーションの検索やレコメンデーションシステムを改善する上で重要な課題である。
エンティティ間の関係性に関するグラフベースのアプローチ,ユーザアクティビティの時間的進化を捉えるシーケンスベースの手法,テキストやビジュアルコンテンツを活用するコンテンツベースのモデルなど,さまざまな表現学習手法が開発されている。
しかし、これらの多様な技術を統合して複数のアプリケーションをサポートする統一フレームワークの開発は、依然として大きな課題である。
本稿では,Pinterestのさまざまなアプリケーションに対するユニバーサル表現を学習する大規模表現フレームワークであるOmniSageについて述べる。
OmniSageは、グラフデータ、ユーザシーケンスデータ、およびコンテンツ信号の効率的な処理に複数のコントラスト学習タスクを使用することで、グラフニューラルネットワークをコンテンツベースモデルとユーザシーケンスモデルに統合する。
OmniSageのトレーニングと推論を支援するために、数十億のノードを持つPinterestグラフをサポートする効率的なインフラストラクチャを開発しました。
OmniSageが生成した普遍的な表現は、Pinterestのユーザエクスペリエンスを著しく向上させ、5つのアプリケーションでサイト全体のリポジトリ(セーブ)がほぼ2.5%増加した。
本稿では,表現学習の統一がもたらす影響を強調し,OmniSageのコードを公開までにオープンソース化する。
関連論文リスト
- A Semantic-Enhanced Heterogeneous Graph Learning Method for Flexible Objects Recognition [3.5624857747396814]
フレキシブルオブジェクト認識のための意味強化ヘテロジニアスグラフ学習法を提案する。
適応走査モジュールを用いて意味的コンテキストを抽出し、様々な形状と大きさの柔軟なオブジェクトのマッチングを容易にする。
グラフ生成モジュールは、グローバルなビジュアルおよびローカルなセマンティックノードの特徴を集約し、柔軟なオブジェクトの認識を改善する。
論文 参考訳(メタデータ) (2025-03-28T01:55:43Z) - UniGraph2: Learning a Unified Embedding Space to Bind Multimodal Graphs [34.48393396390799]
マルチモーダルグラフ上での汎用的な表現学習を可能にする新しいクロスドメイングラフ基盤モデルを提案する。
UniGraph2は、グラフニューラルネットワーク(GNN)と共にモダリティ固有のエンコーダを使用して、統一された低次元埋め込み空間を学習する。
我々は,UniGraph2が表現学習,伝達学習,マルチモーダル生成タスクなどのタスクにおいて,最先端モデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2025-02-02T14:04:53Z) - Iris: Breaking GUI Complexity with Adaptive Focus and Self-Refining [67.87810796668981]
インフォメーション・インフォメーション・インフォメーション・クロッピング(ISC)と自己精製デュアルラーニング(SRDL)
Irisは850KのGUIアノテーションだけで、複数のベンチマークで最先端のパフォーマンスを実現している。
これらの改善は、WebとOSエージェントの両方の下流タスクで大幅に向上した。
論文 参考訳(メタデータ) (2024-12-13T18:40:10Z) - Towards Graph Prompt Learning: A Survey and Beyond [38.55555996765227]
大規模"事前訓練と迅速な学習"パラダイムは、顕著な適応性を示している。
この調査は、この分野における100以上の関連する研究を分類し、一般的な設計原則と最新の応用を要約する。
論文 参考訳(メタデータ) (2024-08-26T06:36:42Z) - Chain-of-Spot: Interactive Reasoning Improves Large Vision-Language Models [81.71651422951074]
CoS(Chain-of-Spot)法は,注目領域に着目して特徴抽出を強化する手法である。
この技術により、LVLMは元の画像解像度を変更することなく、より詳細な視覚情報にアクセスすることができる。
実験の結果,LVLMの視覚的内容の理解と推論能力は著しく改善した。
論文 参考訳(メタデータ) (2024-03-19T17:59:52Z) - General Object Foundation Model for Images and Videos at Scale [99.2806103051613]
本稿では,画像やビデオ中の物体の位置と識別のためのオブジェクトレベルの基礎モデルであるGLEEを提案する。
GLEEは、オープンワールドシナリオにおける任意のオブジェクトの検出、セグメンテーション、トラッキング、グラウンド、識別を達成する。
画像エンコーダ,テキストエンコーダ,視覚プロンプトを用いて複数モーダル入力を処理し,様々なオブジェクト中心の下流タスクを同時に解決する。
論文 参考訳(メタデータ) (2023-12-14T17:26:00Z) - Learning Multimodal Data Augmentation in Feature Space [65.54623807628536]
LeMDAは、機能空間におけるマルチモーダルデータを共同で拡張することを自動的に学習する、使い易い方法である。
我々はLeMDAがマルチモーダルディープラーニングアーキテクチャの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:39:36Z) - Learnable Graph Convolutional Network and Feature Fusion for Multi-view
Learning [30.74535386745822]
本稿では,Learningable Graph Convolutional Network and Feature Fusion (LGCN-FF) と呼ばれる統合ディープラーニングフレームワークを提案する。
特徴融合ネットワークと学習可能なグラフ畳み込みネットワークの2つのステージで構成されている。
提案したLGCN-FFは,多視点半教師付き分類において,様々な最先端手法よりも優れていることが検証された。
論文 参考訳(メタデータ) (2022-11-16T19:07:12Z) - Deep Embedded Multi-View Clustering via Jointly Learning Latent
Representations and Graphs [13.052394521739192]
DMVCJ (Jointly Learning Latent Representation and Graphs) を用いたディープ埋め込み型マルチビュークラスタリングを提案する。
潜在グラフと特徴表現を共同で学習することにより,我々のモデルでグラフ畳み込みネットワーク(GCN)技術が利用可能となる。
潜在グラフに示すノードの隣接関係に基づいて、ノイズを緩和するためのサンプル重み付け戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T07:40:21Z) - X-Learner: Learning Cross Sources and Tasks for Universal Visual
Representation [71.51719469058666]
本稿では,X-Learnerという表現学習フレームワークを提案する。
X-Learnerは、様々なソースによって管理される複数の視覚タスクの普遍的な特徴を学習する。
X-Learnerは、追加のアノテーションやモダリティ、計算コストを使わずに、様々なタスクで強力なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-16T17:23:26Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。