論文の概要: Open-source Frame Semantic Parsing
- arxiv url: http://arxiv.org/abs/2303.12788v1
- Date: Wed, 22 Mar 2023 17:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:10:32.955527
- Title: Open-source Frame Semantic Parsing
- Title(参考訳): オープンソースのフレームセマンティクス解析
- Authors: David Chanin
- Abstract要約: 本稿では,オープンソースのPythonライブラリであるFrame Semantic Transformerについて述べる。
我々は, Propbank と FrameNet の例に微調整した T5 モデルをベースとして, FrameNet の語彙単位を用いて, 推論時に T5 にヒントを与えることによって性能を向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While the state-of-the-art for frame semantic parsing has progressed
dramatically in recent years, it is still difficult for end-users to apply
state-of-the-art models in practice. To address this, we present Frame Semantic
Transformer, an open-source Python library which achieves near state-of-the-art
performance on FrameNet 1.7, while focusing on ease-of-use. We use a T5 model
fine-tuned on Propbank and FrameNet exemplars as a base, and improve
performance by using FrameNet lexical units to provide hints to T5 at inference
time. We enhance robustness to real-world data by using textual data
augmentations during training.
- Abstract(参考訳): 近年,フレームセマンティック解析の最先端技術は飛躍的に進歩しているが,エンドユーザーが実際に最先端のモデルを適用することは依然として困難である。
これに対処するために,framenet 1.7で最先端に近いパフォーマンスを実現するオープンソースpythonライブラリであるframe semantic transformerを提案する。
我々は, Propbank と FrameNet の例に微調整した T5 モデルをベースとして, FrameNet の語彙単位を用いて, 推論時に T5 にヒントを与えることによって性能を向上させる。
トレーニング中にテキストデータ拡張を用いて実世界のデータに対する堅牢性を向上する。
関連論文リスト
- A Technique for Classifying Static Gestures Using UWB Radar [0.0]
UWBに基づく静的ジェスチャー認識のためのロバストなフレームワークを提案する。
我々の最高の性能モデルは96.78%の精度を達成した。
本研究は,UWB技術を用いた静的ジェスチャー認識の高度化に向けた重要な一歩である。
論文 参考訳(メタデータ) (2023-10-23T15:34:03Z) - Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation [93.18163456287164]
本稿では,動画に画像モデルを適用するための新しいテキスト誘導型動画翻訳フレームワークを提案する。
我々のフレームワークは,グローバルなスタイルと局所的なテクスチャの時間的一貫性を低コストで実現している。
論文 参考訳(メタデータ) (2023-06-13T17:52:23Z) - Fine-tuned CLIP Models are Efficient Video Learners [54.96069171726668]
画像テキストペアによる大規模マルチモーダルトレーニングは、CLIPモデルに強力な一般化を与える。
Video Fine-Tuned CLIP (ViFi-CLIP) ベースラインは一般的に、画像からビデオへの領域ギャップを埋めるのに十分である。
論文 参考訳(メタデータ) (2022-12-06T18:59:58Z) - TTVFI: Learning Trajectory-Aware Transformer for Video Frame
Interpolation [50.49396123016185]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを合成することを目的としている。
ビデオフレーム補間用トラジェクトリ対応トランス (TTVFI) を提案する。
提案手法は,4つの広く使用されているVFIベンチマークにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-19T03:37:49Z) - Optimizing Video Prediction via Video Frame Interpolation [53.16726447796844]
本稿では,映像フレームスケープのフォトリアリスティックな結果にインスパイアされた,映像フレームによる映像予測のための新しい最適化フレームワークを提案する。
我々のフレームワークは、トレーニングデータセットを必要とせずに、事前訓練された差別化可能なビデオフレームモジュールによる最適化に基づいている。
我々の手法は、大量のトレーニングデータや余分な意味情報を必要とする他のビデオ予測手法よりも優れている。
論文 参考訳(メタデータ) (2022-06-27T17:03:46Z) - Revealing Single Frame Bias for Video-and-Language Learning [115.01000652123882]
単一フレームのトレーニングモデルでは,トレーニングに複数のフレームを使用する既存手法よりも優れたパフォーマンスが得られることを示す。
この結果は、人気のあるビデオおよび言語データセットに強い「静的な外観バイアス」が存在することを明らかにする。
本稿では、時間的モデリングを促進するために、既存のきめ細かい行動認識データセットに基づく2つの新しい検索タスクを提案する。
論文 参考訳(メタデータ) (2022-06-07T16:28:30Z) - Lutma: a Frame-Making Tool for Collaborative FrameNet Development [0.9786690381850356]
本稿では,Global FrameNetイニシアチブにフレームと語彙単位をコントリビュートするためのコラボレーションツールであるLutmaを紹介する。
このツールは、言語とそれらによって符号化された文化的視点の両方の観点から、FrameNetのカバレッジを合理的に拡張することを可能にする、と我々は主張する。
論文 参考訳(メタデータ) (2022-05-24T07:04:43Z) - Sister Help: Data Augmentation for Frame-Semantic Role Labeling [9.62264668211579]
既存のフレーム固有のアノテーションを用いて、注釈のない同じフレームの他の語彙単位を自動的に注釈付けするデータ拡張手法を提案する。
本稿では,このデータ強化の重要性を示すフレーム・セマンティック・ロール・ラベリングの実験を行う。
論文 参考訳(メタデータ) (2021-09-16T05:15:29Z) - Video Instance Segmentation using Inter-Frame Communication Transformers [28.539742250704695]
最近では、フレーム単位のパイプラインは、フレーム単位のメソッドよりも優れたパフォーマンスを示している。
以前は、フレーム間通信を実現するために、大量の計算とメモリ使用量が必要だった。
フレーム間の情報転送のオーバーヘッドを大幅に低減するフレーム間通信変換器(IFC)を提案する。
論文 参考訳(メタデータ) (2021-06-07T02:08:39Z) - Learning to Recommend Frame for Interactive Video Object Segmentation in
the Wild [38.39582722095913]
本稿では,野生のインタラクティブビデオオブジェクトセグメンテーション(VOS)のためのフレームワークを提案する。
ユーザーアノテーションに基づいて、セグメンテーションアルゴリズムはマスクを洗練します。
本稿では,最悪の評価基準を持つフレームが,必ずしも最も価値の高いフレームではない可能性を示唆する。
論文 参考訳(メタデータ) (2021-03-18T17:19:47Z) - Efficient Semantic Video Segmentation with Per-frame Inference [117.97423110566963]
本研究では,フレームごとの効率的なセマンティックビデオセグメンテーションを推論プロセス中に処理する。
そこで我々は,コンパクトモデルと大規模モデルのパフォーマンスギャップを狭めるために,新しい知識蒸留法を設計した。
論文 参考訳(メタデータ) (2020-02-26T12:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。