論文の概要: 3D-EX : A Unified Dataset of Definitions and Dictionary Examples
- arxiv url: http://arxiv.org/abs/2308.03043v2
- Date: Fri, 11 Aug 2023 12:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 16:14:02.891321
- Title: 3D-EX : A Unified Dataset of Definitions and Dictionary Examples
- Title(参考訳): 3D-EX : 定義と辞書の統一データセット
- Authors: Fatemah Almeman, Hadi Sheikhi, Luis Espinosa-Anke
- Abstract要約: 3D- EXは、よく知られた英語リソースを1つの中央集権的な知識リポジトリに統合することを目的としたデータセットである。
我々は,このデータセットが下流のNLPタスクに効果的に活用できることを示唆する実験結果について報告する。
- 参考スコア(独自算出の注目度): 12.115589100837216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Definitions are a fundamental building block in lexicography, linguistics and
computational semantics. In NLP, they have been used for retrofitting word
embeddings or augmenting contextual representations in language models.
However, lexical resources containing definitions exhibit a wide range of
properties, which has implications in the behaviour of models trained and
evaluated on them. In this paper, we introduce 3D- EX , a dataset that aims to
fill this gap by combining well-known English resources into one centralized
knowledge repository in the form of <term, definition, example> triples. 3D- EX
is a unified evaluation framework with carefully pre-computed
train/validation/test splits to prevent memorization. We report experimental
results that suggest that this dataset could be effectively leveraged in
downstream NLP tasks. Code and data are available at
https://github.com/F-Almeman/3D-EX .
- Abstract(参考訳): 定義は語彙学、言語学、計算意味論における基本的な構成要素である。
NLPでは、言語モデルにおける単語埋め込みや文脈表現の強化に使用されている。
しかし、定義を含む語彙資源は幅広い性質を示し、それらに基づいて訓練され評価されたモデルの振る舞いに影響を及ぼす。
本稿では,よく知られた英語資源を<term, definition, example>トリプルという形で1つの集中型知識リポジトリに組み合わせることで,このギャップを埋めることを目的としたデータセットである3d- exを紹介する。
3d-exは、列車/バリデーション/テスト分割を注意深く計算した統一評価フレームワークである。
我々は,このデータセットを下流のnlpタスクで効果的に活用できることを示す実験結果を報告する。
コードとデータはhttps://github.com/f-almeman/3d-exで入手できる。
関連論文リスト
- POP-3D: Open-Vocabulary 3D Occupancy Prediction from Images [32.33170182669095]
入力された2次元画像からオープンな3次元セマンティックなボクセル占有マップを推定する手法について述べる。
アーキテクチャは、2D-3Dエンコーダと、占有率予測と3D言語ヘッドで構成されている。
出力は3次元接地言語埋め込みの密度の高いボクセルマップであり、様々なオープン語彙タスクを可能にする。
論文 参考訳(メタデータ) (2024-01-17T18:51:53Z) - Lowis3D: Language-Driven Open-World Instance-Level 3D Scene
Understanding [57.47315482494805]
オープンワールドのインスタンスレベルのシーン理解は、アノテーション付きデータセットに存在しない未知のオブジェクトカテゴリを特定し、認識することを目的としている。
モデルは新しい3Dオブジェクトをローカライズし、それらのセマンティックなカテゴリを推論する必要があるため、この課題は難しい。
本稿では,3Dシーンのキャプションを生成するために,画像テキストペアからの広範な知識を符号化する,事前学習型視覚言語基盤モデルを提案する。
論文 参考訳(メタデータ) (2023-08-01T07:50:14Z) - Distilling Coarse-to-Fine Semantic Matching Knowledge for Weakly
Supervised 3D Visual Grounding [58.924180772480504]
3Dビジュアルグラウンドリングは、所定の文クエリに対応する3Dシーンでターゲットオブジェクトを見つけることを含む。
弱教師付きアノテーションを利用して3次元視覚的接地モデルを学ぶことを提案する。
オブジェクトの提案と文のセマンティックな類似性を粗大な方法で解析する新しいセマンティックマッチングモデルを設計する。
論文 参考訳(メタデータ) (2023-07-18T13:49:49Z) - Occ3D: A Large-Scale 3D Occupancy Prediction Benchmark for Autonomous
Driving [34.368848580725576]
我々は,任意のシーンに対して,濃密で可視性に配慮したラベルを生成するラベル生成パイプラインを開発した。
このパイプラインは、ボクセルの密度化、推論、画像誘導ボクセル精製の3段階からなる。
我々は、Occ3Dベンチマークにおいて優れた性能を示すCTF-Occネットワークと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-04-27T17:40:08Z) - VL-SAT: Visual-Linguistic Semantics Assisted Training for 3D Semantic
Scene Graph Prediction in Point Cloud [51.063494002003154]
点雲における3次元意味的シーングラフ(DSSG)の予測は、3次元点雲が2次元画像と比較して限られた意味を持つ幾何学的構造のみを捉えているため困難である。
本稿では,3DSSG予測モデルに対して,長い尾とあいまいな意味関係を識別できる視覚言語セマンティックス支援トレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T09:14:18Z) - TopoBERT: Plug and Play Toponym Recognition Module Harnessing Fine-tuned
BERT [11.446721140340575]
TopoBERTは,一次元畳み込みニューラルネットワーク(CNN1D)と変換器による双方向表現(BERT)に基づくトポニム認識モジュールである。
TopoBERTは、他の5つのベースラインモデルと比較して最先端のパフォーマンスを達成し、追加のトレーニングなしで様々なトポニム認識タスクに適用することができる。
論文 参考訳(メタデータ) (2023-01-31T13:44:34Z) - ULIP: Learning a Unified Representation of Language, Images, and Point
Clouds for 3D Understanding [110.07170245531464]
現在の3Dモデルは、注釈付きデータの少ないデータセットと、事前に定義されたカテゴリセットによって制限されている。
近年の進歩は、言語などの他のモダリティからの知識を活用することで、同様の問題を著しく軽減できることを示している。
画像,テキスト,3次元点雲の統一表現は,3つのモードからオブジェクト三重項を事前学習することで学習する。
論文 参考訳(メタデータ) (2022-12-10T01:34:47Z) - OpenScene: 3D Scene Understanding with Open Vocabularies [73.1411930820683]
従来の3Dシーン理解アプローチは、単一のタスクのためにモデルをトレーニングするためのラベル付き3Dデータセットに依存している。
私たちは,CLIP機能空間にテキストと画像ピクセルを埋め込んだ3次元シーンポイントの高密度な特徴をモデルが予測する代替手法OpenSceneを提案する。
このゼロショットアプローチは、タスク非依存のトレーニングとオープン語彙クエリを可能にする。
論文 参考訳(メタデータ) (2022-11-28T18:58:36Z) - EDA: Explicit Text-Decoupling and Dense Alignment for 3D Visual
Grounding [4.447173454116189]
3Dビジュアルグラウンドティングは、リッチなセマンティックキューを備えた自由形式の自然言語記述によって言及されているポイントクラウド内のオブジェクトを見つけることを目的としている。
文中のテキスト属性を明示的に分離するEDAを提案する。
さらに、オブジェクト名を含まないオブジェクトを位置決めする新しい視覚的接地タスクを導入し、モデルの高密度アライメント能力を徹底的に評価する。
論文 参考訳(メタデータ) (2022-09-29T17:00:22Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。