論文の概要: TreeTensor: Boost AI System on Nested Data with Constrained Tree-Like Tensor
- arxiv url: http://arxiv.org/abs/2602.08517v1
- Date: Mon, 09 Feb 2026 11:06:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.185911
- Title: TreeTensor: Boost AI System on Nested Data with Constrained Tree-Like Tensor
- Title(参考訳): TreeTensor: 制約のある木のようなテンソルを持つネストデータ上のAIシステム
- Authors: Shaoang Zhang, Yazhe Niu,
- Abstract要約: 複雑な認知AIシステムのデータは、通常、様々なモダリティを持つ階層構造(ネストデータ)を持つ。
この問題を解決するために、ネストデータの主な2つの計算パターンを要約し、次に一般的なネストデータコンテナであるTreeTensorを提案する。
TreeTensorのさまざまな制約とマジックユーティリティを通じて、ほぼゼロのコストでネストされたデータに任意の関数と操作を適用することができる。
- 参考スコア(独自算出の注目度): 4.240859110842185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensor is the most basic and essential data structure of nowadays artificial intelligence (AI) system. The natural properties of Tensor, especially the memory-continuity and slice-independence, make it feasible for training system to leverage parallel computing unit like GPU to process data simultaneously in batch, spatial or temporal dimensions. However, if we look beyond perception tasks, the data in a complicated cognitive AI system usually has hierarchical structures (i.e. nested data) with various modalities. They are inconvenient and inefficient to program directly with conventional Tensor with fixed shape. To address this issue, we summarize two main computational patterns of nested data, and then propose a general nested data container: TreeTensor. Through various constraints and magic utilities of TreeTensor, one can apply arbitrary functions and operations to nested data with almost zero cost, including some famous machine learning libraries, such as Scikit-Learn, Numpy and PyTorch. Our approach utilizes a constrained tree-structure perspective to systematically model data relationships, and it can also easily be combined with other methods to extend more usages, such as asynchronous execution and variable-length data computation. Detailed examples and benchmarks show TreeTensor not only provides powerful usability in various problems, especially one of the most complicated AI systems at present: AlphaStar for StarCraftII, but also exhibits excellent runtime efficiency without any overhead. Our project is available at https://github.com/opendilab/DI-treetensor.
- Abstract(参考訳): テンソル(Tensor)は、現代の人工知能(AI)システムにおいて、最も基本的なデータ構造である。
Tensorの自然の性質、特にメモリ連続性とスライス独立性は、GPUのような並列コンピューティングユニットを活用して、バッチ、空間、時間次元でデータを同時に処理することが可能である。
しかし、知覚タスクを超えて考えると、複雑な認知AIシステムのデータは、通常、様々なモダリティを持つ階層構造(ネストデータ)を持つ。
従来のテンソルを固定形状で直接プログラムするのは不便で非効率である。
この問題を解決するために、ネストデータの主な2つの計算パターンを要約し、次に一般的なネストデータコンテナであるTreeTensorを提案する。
TreeTensorのさまざまな制約とマジックユーティリティを通じて、Scikit-Learn、Numpy、PyTorchといった有名な機械学習ライブラリを含む、ネストされたデータにほぼゼロのコストで任意の関数と操作を適用することができる。
提案手法では,制約木構造の観点からデータ関係を体系的にモデル化し,非同期実行や可変長データ計算など,他の手法と組み合わせることも容易である。
詳細な例とベンチマークによると、TreeTensorはさまざまな問題、特に現在最も複雑なAIシステムのひとつとして、強力なユーザビリティを提供する。
私たちのプロジェクトはhttps://github.com/opendilab/DI-treetensor.comで公開されています。
関連論文リスト
- FUTURE: Flexible Unlearning for Tree Ensemble [23.336396189756574]
木アンサンブルは、様々な領域で最先端のパフォーマンスを達成し、分類タスクにおける有効性で広く認識されている。
データプライバシと忘れるべきテキストライトに重点を置いているため、ツリーアンサンブルが機密情報を忘れるように、いくつかの未学習アルゴリズムが提案されている。
木アンサンブルのための新しいアンラーニングアルゴリズムであるFUTUREを提案する。
論文 参考訳(メタデータ) (2025-08-28T19:45:36Z) - RV-Syn: Rational and Verifiable Mathematical Reasoning Data Synthesis based on Structured Function Library [58.404895570822184]
RV-Synは、新しい数学的合成手法である。
このライブラリからPython形式の関数を組み合わせることで、グラフをソリューションとして生成する。
構築したグラフに基づいて,解誘導論理認識問題生成を実現する。
論文 参考訳(メタデータ) (2025-04-29T04:42:02Z) - Fast unsupervised ground metric learning with tree-Wasserstein distance [14.235762519615175]
教師なしの地上距離学習アプローチが導入されました
一つの有望な選択肢はワッサーシュタイン特異ベクトル(WSV)であり、特徴量とサンプルの間の最適な輸送距離を同時に計算する際に現れる。
木にサンプルや特徴を埋め込むことでWSV法を強化し,木-ワッサーシュタイン距離(TWD)を計算することを提案する。
論文 参考訳(メタデータ) (2024-11-11T23:21:01Z) - BUFF: Boosted Decision Tree based Ultra-Fast Flow matching [3.23055518616474]
タブラルデータ(Tabular data)は、高エネルギー物理学において最も頻繁に見られるタイプの1つである。
我々は、条件付きフローマッチングと呼ばれる、ごく最近の生成モデルクラスを採用し、グラディエントブーストツリーの使用を統合化するために、異なる手法を採用する。
我々は,ほとんどのハイレベルシミュレーションタスクのトレーニング時間と推論時間が,桁違いのスピードアップを実現することを実証する。
論文 参考訳(メタデータ) (2024-04-28T15:31:20Z) - Hexatagging: Projective Dependency Parsing as Tagging [63.5392760743851]
文中の単語を有限個の可能なタグの要素でタグ付けすることで、依存関係木を構成する新しい依存性であるヘキサトガーを導入する。
私たちのアプローチは、トレーニング時に完全に並列化可能です。すなわち、依存関係のパースを構築するのに必要な構造構築アクションは、互いに並列に予測できます。
我々はPenn Treebankテストセット上で96.4 LASと97.4 UASの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-08T18:02:07Z) - Efficient Asynchronize Stochastic Gradient Algorithm with Structured
Data [19.883487404226805]
本研究では、入力データポイントの観点から、各イテレーションにおける計算の高速化を試みる。
具体的には、2層完全に接続されたニューラルネットワークの場合、トレーニングデータに特別な特性がある場合、各イテレーションはデータ次元のサブ線形時間で完了することができる。
論文 参考訳(メタデータ) (2023-05-13T20:45:27Z) - Learnable Graph Matching: A Practical Paradigm for Data Association [74.28753343714858]
これらの問題に対処するための一般的な学習可能なグラフマッチング法を提案する。
提案手法は,複数のMOTデータセット上での最先端性能を実現する。
画像マッチングでは,一般的な屋内データセットであるScanNetで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-27T17:39:00Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。