論文の概要: Charon: a FrameNet Annotation Tool for Multimodal Corpora
- arxiv url: http://arxiv.org/abs/2205.11836v1
- Date: Tue, 24 May 2022 06:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 13:49:16.898435
- Title: Charon: a FrameNet Annotation Tool for Multimodal Corpora
- Title(参考訳): Charon: マルチモーダルコーパスのためのFrameNetアノテーションツール
- Authors: Frederico Belcavello, Marcelo Viridiano, Ely Edison Matos, Tiago
Timponi Torrent
- Abstract要約: Charonは、FrameNetカテゴリでマルチモーダルコーパスをアノテートするためのWebツールである。
パイプラインには、アノテーションインターフェース、コーパスインポート、前処理ツールに加えて、機能がある。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents Charon, a web tool for annotating multimodal corpora with
FrameNet categories. Annotation can be made for corpora containing both static
images and video sequences paired - or not - with text sequences. The pipeline
features, besides the annotation interface, corpus import and pre-processing
tools.
- Abstract(参考訳): 本稿では,複数モーダルコーパスをFrameNetカテゴリでアノテートするWebツールCharonを提案する。
コメントは、静的画像とビデオシーケンスの両方とテキストシーケンスとの組み合わせを含むコーパスに対して作成することができる。
パイプラインはアノテーションインターフェース、コーパスインポート、前処理ツールに加えて機能する。
関連論文リスト
- factgenie: A Framework for Span-based Evaluation of Generated Texts [1.6864244598342872]
sは意味的な不正確さや無関係なテキストなど、様々なスパンベースの現象をキャプチャできる。
私たちのフレームワークは、データ可視化とテキストアノテーションの収集のためのWebインターフェースで構成されています。
論文 参考訳(メタデータ) (2024-07-25T08:33:23Z) - Inferring and Leveraging Parts from Object Shape for Improving Semantic
Image Synthesis [64.05076727277431]
本稿では、オブジェクトShapE(iPOSE)からパーツを推論し、セマンティック画像合成の改善に活用する。
我々は、事前に定義されたサポート部分マップのガイダンスを用いて、オブジェクト部分マップを予測するPartNetを学習する。
実験の結果,iPOSEは細部が豊富なオブジェクトを生成するだけでなく,画像合成を柔軟に制御できることがわかった。
論文 参考訳(メタデータ) (2023-05-31T04:27:47Z) - Bringing Image Scene Structure to Video via Frame-Clip Consistency of
Object Tokens [93.98605636451806]
StructureViTは、トレーニング中にのみ利用可能な少数の画像の構造を利用することで、ビデオモデルを改善する方法を示している。
SViTでは、複数のビデオ理解タスクとデータセットのパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2022-06-13T17:45:05Z) - Lutma: a Frame-Making Tool for Collaborative FrameNet Development [0.9786690381850356]
本稿では,Global FrameNetイニシアチブにフレームと語彙単位をコントリビュートするためのコラボレーションツールであるLutmaを紹介する。
このツールは、言語とそれらによって符号化された文化的視点の両方の観点から、FrameNetのカバレッジを合理的に拡張することを可能にする、と我々は主張する。
論文 参考訳(メタデータ) (2022-05-24T07:04:43Z) - End-to-end Generative Pretraining for Multimodal Video Captioning [82.79187814057313]
本稿では,未学習ビデオから学習するための新しい事前学習フレームワークであるMV-GPTを提案する。
最近のビデオ言語事前学習フレームワークとは異なり、我々のフレームワークはマルチモーダルビデオエンコーダと文デコーダを共同で訓練する。
本モデルは,4つの標準ベンチマークによるマルチモーダルビデオキャプションの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-01-20T16:16:21Z) - Frame Shift Prediction [1.4699455652461724]
フレームシフト(英: Frame shift)は、異なるフレームを起動する言語素材のペアが対応する結果となる翻訳における言語横断的な現象である。
フレームシフトを予測する機能により、アノテーションプロジェクションによる多言語FrameNetの自動生成が可能になる。
論文 参考訳(メタデータ) (2022-01-05T22:03:06Z) - Improving Semantic Image Segmentation via Label Fusion in Semantically
Textured Meshes [10.645137380835994]
ビデオシーケンスのセマンティックなピクセルラベルを教師なしで改善できるラベル融合フレームワークを提案する。
環境の3Dメッシュ表現を使用し、異なるフレームの予測をセマンティックメッシュテクスチャを用いた一貫した表現に融合する。
我々は,最先端セグメンテーションネットワークESANetが生成するアノテーションを52.05 %から58.25 %のピクセル精度で改善するScannetデータセット上で評価した。
論文 参考訳(メタデータ) (2021-11-22T10:47:32Z) - Encoder Fusion Network with Co-Attention Embedding for Referring Image
Segmentation [87.01669173673288]
本稿では,視覚的エンコーダをマルチモーダルな特徴学習ネットワークに変換するエンコーダ融合ネットワーク(EFN)を提案する。
EFNには、マルチモーダル機能の並列更新を実現するコアテンションメカニズムが組み込まれている。
4つのベンチマークデータセットによる実験結果から,提案手法がポストプロセッシングを伴わずに最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-05T02:27:25Z) - TGCN: Time Domain Graph Convolutional Network for Multiple Objects
Tracking [5.408882973190155]
複数のオブジェクト追跡は、ビデオ内の各オブジェクトにIDを与える。
マッチング機能には、外観機能、位置情報機能などが含まれる。
本稿では,複数オブジェクト追跡のための時間領域グラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-01-06T04:11:25Z) - Dense Relational Image Captioning via Multi-task Triple-Stream Networks [95.0476489266988]
視覚的な場面におけるオブジェクト間の情報に関して,キャプションを生成することを目的とした新しいタスクである。
このフレームワークは、多様性と情報の量の両方において有利であり、包括的なイメージ理解につながる。
論文 参考訳(メタデータ) (2020-10-08T09:17:55Z) - Interactive Video Object Segmentation Using Global and Local Transfer
Modules [51.93009196085043]
我々はアノテーションネットワーク(A-Net)と転送ネットワーク(T-Net)からなるディープニューラルネットワークを開発する。
A-Netは、フレーム上のユーザ記述を前提として、エンコーダ-デコーダアーキテクチャに基づいたセグメンテーション結果を生成する。
ユーザスクリブルをエミュレートし,補助的な損失を生かして,ネットワーク全体を2段階に分けてトレーニングする。
論文 参考訳(メタデータ) (2020-07-16T06:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。