論文の概要: Improving (Re-)Usability of Musical Datasets: An Overview of the DOREMUS Project
- arxiv url: http://arxiv.org/abs/2405.03382v1
- Date: Mon, 06 May 2024 11:41:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 00:59:01.329153
- Title: Improving (Re-)Usability of Musical Datasets: An Overview of the DOREMUS Project
- Title(参考訳): 音楽データセットの(再)使用性の向上:DOREMUSプロジェクトの概要
- Authors: Pasquale Lisena, Manel Achichi, Pierre Choffé, Cécile Cecconi, Konstantin Todorov, Bernard Jacquemin, Raphaël Troncy,
- Abstract要約: DOREMUSは、フランスの3つの機関のデータをリンクし、探索する新しいツールを構築することで、音楽のより良い説明に取り組んでいる。
本稿では、FRBRooに基づくデータモデルの概要を説明し、リンクデータ技術を用いた変換およびリンクプロセスを説明し、Webユーザのニーズに応じてデータを消費するプロトタイプを提示する。
- 参考スコア(独自算出の注目度): 1.0898820273079584
- License:
- Abstract: DOREMUS works on a better description of music by building new tools to link and explore the data of three French institutions. This paper gives an overview of the data model based on FRBRoo, explains the conversion and linking processes using linked data technologies and presents the prototypes created to consume the data according to the web users' needs.
- Abstract(参考訳): DOREMUSは、フランスの3つの機関のデータをリンクし、探索する新しいツールを構築することで、音楽のより良い説明に取り組んでいる。
本稿では、FRBRooに基づくデータモデルの概要を説明し、リンクデータ技術を用いた変換およびリンクプロセスを説明し、Webユーザのニーズに応じてデータを消費するプロトタイプを提示する。
関連論文リスト
- Language Supervised Human Action Recognition with Salient Fusion: Construction Worker Action Recognition as a Use Case [8.26451988845854]
本研究では,人間の行動認識(HAR)に骨格と視覚的手がかりをベースとした新しいアプローチを提案する。
特徴表現を最適化するために,スケルトンモダリティを条件とした言語モデルに対して学習可能なプロンプトを用いる。
建設現場における実世界のロボット応用に適した新しいデータセットを導入し,視覚,骨格,深度データモダリティを特徴とする。
論文 参考訳(メタデータ) (2024-10-02T19:10:23Z) - Bayesian Diffusion Models for 3D Shape Reconstruction [54.69889488052155]
本稿では,トップダウン(優先)情報をボトムアップ(データ駆動)手順と密結合することにより,効果的なベイズ推定を行う予測アルゴリズムを提案する。
3次元形状復元作業におけるBDMの有効性を示す。
論文 参考訳(メタデータ) (2024-03-11T17:55:53Z) - An Integrated Data Processing Framework for Pretraining Foundation Models [57.47845148721817]
研究者や実践者は、しばしば異なるソースからデータセットを手動でキュレートする必要がある。
本稿では,処理モジュールと解析モジュールを統合したデータ処理フレームワークを提案する。
提案されたフレームワークは使いやすく、柔軟です。
論文 参考訳(メタデータ) (2024-02-26T07:22:51Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Data Formulator: AI-powered Concept-driven Visualization Authoring [31.45748186186275]
我々は、高レベルの可視化意図と低レベルのデータ変換ステップを分離する新しい可視化パラダイム、概念バインディングを提案する。
Data Formulatorでは、著者がまず自然言語や例を使って視覚化するデータ概念を定義し、それをビジュアルチャネルにバインドする。
Data FormulatorはAIエージェントをディスパッチして、入力データを自動的に変換してこれらの概念をサーフェスし、望ましい視覚化を生成する。
論文 参考訳(メタデータ) (2023-09-18T19:06:29Z) - Melody: A Platform for Linked Open Data Visualisation and Curated
Storytelling [0.0]
MELODYはLinked Open Dataに基づいたデータストーリーをオーサリングするためのWebインターフェースである。
データの普及が不可欠であるプロジェクトにおいて、その潜在的影響を示す。
論文 参考訳(メタデータ) (2023-06-26T16:39:24Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - A Multi-Format Transfer Learning Model for Event Argument Extraction via
Variational Information Bottleneck [68.61583160269664]
イベント引数抽出(EAE)は、テキストから所定の役割を持つ引数を抽出することを目的としている。
変動情報のボトルネックを考慮したマルチフォーマット変換学習モデルを提案する。
3つのベンチマークデータセットに対して広範な実験を行い、EAE上での新たな最先端性能を得る。
論文 参考訳(メタデータ) (2022-08-27T13:52:01Z) - BET: A Backtranslation Approach for Easy Data Augmentation in
Transformer-based Paraphrase Identification Context [0.0]
我々はこの手法をBETと呼び、トランスフォーマーベースのアーキテクチャ上でのバックトランスレーションデータ拡張を分析する。
以上の結果から,BETはMicrosoft Research Paraphrase Corpusのパラフレーズ識別性能を,精度とF1スコアの両方で3%以上向上することが示唆された。
論文 参考訳(メタデータ) (2020-09-25T22:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。