論文の概要: Box Embeddings: An open-source library for representation learning using
geometric structures
- arxiv url: http://arxiv.org/abs/2109.04997v1
- Date: Fri, 10 Sep 2021 17:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:42:03.257850
- Title: Box Embeddings: An open-source library for representation learning using
geometric structures
- Title(参考訳): box embeddeds:幾何構造を用いた表現学習のためのオープンソースライブラリ
- Authors: Tejas Chheda, Purujit Goyal, Trang Tran, Dhruvesh Patel, Michael
Boratko, Shib Sankar Dasgupta, and Andrew McCallum
- Abstract要約: 現代の表現学習の成功に寄与する主要な要因は、様々なベクトル演算の実行を容易にすることである。
Box EmbeddingsはPythonライブラリで、研究者が簡単に確率的ボックスの埋め込みを適用および拡張できる。
- 参考スコア(独自算出の注目度): 27.35445549431491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major factor contributing to the success of modern representation learning
is the ease of performing various vector operations. Recently, objects with
geometric structures (eg. distributions, complex or hyperbolic vectors, or
regions such as cones, disks, or boxes) have been explored for their
alternative inductive biases and additional representational capacities. In
this work, we introduce Box Embeddings, a Python library that enables
researchers to easily apply and extend probabilistic box embeddings.
- Abstract(参考訳): 現代表現学習の成功に寄与する主要な要因は、様々なベクトル演算の実行の容易さである。
近年、幾何学的構造(分布、複素あるいは双曲ベクトル、円錐、円盤、箱などの領域)を持つ物体は、その代替帰納バイアスと追加の表現能力のために探索されている。
そこで本研究では,PythonライブラリであるBox Embeddingsを紹介した。
関連論文リスト
- Binder: Hierarchical Concept Representation through Order Embedding of Binary Vectors [3.9271338080639753]
順序に基づく表現のための新しいアプローチであるBinderを提案する。
Binderは埋め込みにバイナリベクトルを使用するため、埋め込みベクトルは他の方法よりもはるかに小さなフットプリントでコンパクトである。
論文 参考訳(メタデータ) (2024-04-16T21:52:55Z) - Demystifying Embedding Spaces using Large Language Models [26.91321899603332]
本稿では,埋め込みをより解釈しやすく,広く活用する上での課題に対処する。
埋め込みを直接操作するためにLarge Language Models(LLMs)を用いることで、抽象ベクトルを理解可能な物語に変換する。
提案手法は,概念アクティベーションベクトル(CAV)の強化,新しい組み込みエンティティの通信,レコメンデーションシステムにおけるユーザの好みのデコードなど,多種多様なタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-06T05:27:28Z) - Multivariate Representation Learning for Information Retrieval [31.31440742912932]
本稿では,高密度検索のための新しい表現学習フレームワークを提案する。
クエリやドキュメント毎にベクトルを学習する代わりに、我々のフレームワークは多変量分布を学習する。
近似した近似近似アルゴリズムにシームレスに統合できることが示される。
論文 参考訳(メタデータ) (2023-04-27T20:30:46Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [110.00434385712786]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - On the Complexity of Representation Learning in Contextual Linear
Bandits [110.84649234726442]
表現学習は線形帯域よりも根本的に複雑であることを示す。
特に、与えられた表現の集合で学ぶことは、その集合の中で最悪の実現可能な表現で学ぶことよりも決して単純ではない。
論文 参考訳(メタデータ) (2022-12-19T13:08:58Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - Lattice Representation Learning [6.427169570069738]
ユークリッド空間に埋め込まれた格子を利用する離散表現を学習するための理論とアルゴリズムを導入する。
格子表現は興味深い性質の組み合わせを持つ:a) 格子量子化を用いて明示的に計算できるが、導入したアイデアを使って効率的に学習することができる。
この記事では、トレーニングや推論時間に使用される式をリンクする新しい数学的結果や、2つの一般的なデータセットに対する実験的な検証など、最初の2つの特性を探索し、活用するための基盤の整備に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-24T16:05:11Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z) - Deep Metric Structured Learning For Facial Expression Recognition [58.7528672474537]
本研究では,よく定義された構造を持つ組込み部分空間を作成するための深度計量学習モデルを提案する。
これらの部分空間を作成するために、出力空間上にガウス構造を課す新しい損失関数が導入された。
学習した埋め込みは,表現検索や感情認識など,様々な応用に有効であることが実験的に実証された。
論文 参考訳(メタデータ) (2020-01-18T06:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。