論文の概要: Lighthouse: A User-Friendly Library for Reproducible Video Moment Retrieval and Highlight Detection
- arxiv url: http://arxiv.org/abs/2408.02901v2
- Date: Thu, 22 Aug 2024 00:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 18:36:08.938553
- Title: Lighthouse: A User-Friendly Library for Reproducible Video Moment Retrieval and Highlight Detection
- Title(参考訳): Lighthouse: 再現可能なビデオモーメント検索とハイライト検出のためのユーザフレンドリーなライブラリ
- Authors: Taichi Nishimura, Shota Nakada, Hokuto Munakata, Tatsuya Komatsu,
- Abstract要約: 再現性のあるビデオモーメント検索とハイライト検出(MR-HD)のためのユーザフレンドリーなライブラリLighthouseを提案する。
1つ目は、さまざまなメソッド、データセット、ビデオテキスト機能にまたがる包括的な再現可能な実験の欠如である。これは、統一されたトレーニングと評価が複数の設定をカバーすることができないためである。
ほとんどの作業はトレーニングコードのみをリリースし、MR-HDの推論プロセス全体を実装する必要がある。Lighthouseは6つのモデル、3つの機能、5つのデータセットを含む統一的な再現可能な実装によってこれらの問題に対処する。
- 参考スコア(独自算出の注目度): 14.227865973426843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Lighthouse, a user-friendly library for reproducible video moment retrieval and highlight detection (MR-HD). Although researchers proposed various MR-HD approaches, the research community holds two main issues. The first is a lack of comprehensive and reproducible experiments across various methods, datasets, and video-text features. This is because no unified training and evaluation codebase covers multiple settings. The second is user-unfriendly design. Because previous works use different libraries, researchers set up individual environments. In addition, most works release only the training codes, requiring users to implement the whole inference process of MR-HD. Lighthouse addresses these issues by implementing a unified reproducible codebase that includes six models, three features, and five datasets. In addition, it provides an inference API and web demo to make these methods easily accessible for researchers and developers. Our experiments demonstrate that Lighthouse generally reproduces the reported scores in the reference papers. The code is available at https://github.com/line/lighthouse.
- Abstract(参考訳): 再現可能なビデオモーメント検索とハイライト検出(MR-HD)のためのユーザフレンドリーなライブラリであるLighthouseを提案する。
研究者は様々なMR-HDアプローチを提案したが、研究コミュニティには2つの主要な課題がある。
1つ目は、さまざまなメソッド、データセット、ビデオテキスト機能にまたがる包括的な再現可能な実験の欠如である。
これは、統一的なトレーニングや評価コードベースが複数の設定をカバーしていないためです。
2つ目はユーザーフレンドリーなデザインです。
以前の研究では異なるライブラリを使用していたため、研究者は個別の環境を構築した。
加えて、ほとんどの作業はトレーニングコードのみをリリースし、MR-HDの全推論プロセスを実装する必要がある。
Lighthouseは6つのモデル、3つの機能、5つのデータセットを含む再現可能なコードベースを統一して実装することで、これらの問題に対処する。
さらに、推論APIとWebデモを提供し、これらのメソッドが研究者や開発者にとって容易にアクセスできるようにする。
我々の実験は、Lighthouseが参照論文で報告されたスコアを一般的に再現していることを示している。
コードはhttps://github.com/line/lighthouse.comで公開されている。
関連論文リスト
- OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [70.72097493954067]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - Prompto: An open source library for asynchronous querying of LLM endpoints [1.5558845602219702]
promptoはオープンソースのPythonライブラリで、Large Language Modelエンドポイントの非同期クエリを容易にする。
我々のライブラリーは、研究者や開発者がより効果的にLLMと対話できるようにし、より高速な実験と評価を可能にします。
論文 参考訳(メタデータ) (2024-08-12T15:19:59Z) - VersiCode: Towards Version-controllable Code Generation [58.82709231906735]
大規模言語モデル(LLM)は、コード生成において大きな進歩を遂げていますが、既存の研究は、ソフトウェア開発の動的な性質を説明できません。
バージョン別コード補完(VSCC)とバージョン別コードマイグレーション(VACM)の2つの新しいタスクを提案する。
VersiCodeについて広範な評価を行い、バージョン管理可能なコード生成が確かに重要な課題であることを示した。
論文 参考訳(メタデータ) (2024-06-11T16:15:06Z) - DataDreamer: A Tool for Synthetic Data Generation and Reproducible LLM Workflows [72.40917624485822]
我々は、研究者が強力な大規模言語モデルを実装することができるオープンソースのPythonライブラリであるDataDreamerを紹介した。
DataDreamerはまた、オープンサイエンスを促進するために提案するベストプラクティスに研究者が従うのを助ける。
論文 参考訳(メタデータ) (2024-02-16T00:10:26Z) - Private-Library-Oriented Code Generation with Large Language Models [52.73999698194344]
本稿では,大規模言語モデル(LLM)をプライベートライブラリのコード生成に活用することに焦点を当てる。
プログラマがプライベートコードを書く過程をエミュレートする新しいフレームワークを提案する。
TorchDataEval、TorchDataComplexEval、MonkeyEval、BeatNumEvalの4つのプライベートライブラリベンチマークを作成しました。
論文 参考訳(メタデータ) (2023-07-28T07:43:13Z) - torchgfn: A PyTorch GFlowNet library [56.071033896777784]
torchgfnはPyTorchライブラリで、このニーズに対処することを目指している。
環境のためのシンプルなAPIと、サンプルと損失のための有用な抽象化を提供する。
論文 参考訳(メタデータ) (2023-05-24T00:20:59Z) - Repro: An Open-Source Library for Improving the Reproducibility and
Usability of Publicly Available Research Code [74.28810048824519]
Reproは、研究コードのユーザビリティ向上を目的とした、オープンソースのライブラリである。
Dockerコンテナ内で研究者がリリースしたソフトウェアを実行するための軽量Python APIを提供する。
論文 参考訳(メタデータ) (2022-04-29T01:54:54Z) - Req2Lib: A Semantic Neural Model for Software Library Recommendation [8.713783358744166]
我々はReq2Libと呼ばれる新しいニューラルアプローチを提案し、プロジェクトの要件を記述したライブラリを推奨する。
本研究では,自然言語における要求記述の関連情報と意味情報の学習にシーケンス・ツー・シーケンスモデルを用いる。
我々の予備評価は、Req2Libがライブラリを正確に推奨できることを示しています。
論文 参考訳(メタデータ) (2020-05-24T14:37:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。