論文の概要: FrameBERT: Conceptual Metaphor Detection with Frame Embedding Learning
- arxiv url: http://arxiv.org/abs/2302.04834v1
- Date: Thu, 9 Feb 2023 18:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 14:51:06.806144
- Title: FrameBERT: Conceptual Metaphor Detection with Frame Embedding Learning
- Title(参考訳): FrameBERT:フレーム埋め込み学習による概念メタファー検出
- Authors: Yucheng Li, Shun Wang, Chenghua Lin, Frank Guerin, Lo\"ic Barrault
- Abstract要約: 本稿では,概念レベルのメタファ検出のために,FrameNet Embeddings を明示的に学習し,組み込むことができる FrameBERT を提案する。
FrameBERTは、最先端の性能や同等のパフォーマンスを達成するだけでなく、既存のモデルよりも説明しやすく解釈しやすい。
- 参考スコア(独自算出の注目度): 14.017480907225066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose FrameBERT, a RoBERTa-based model that can
explicitly learn and incorporate FrameNet Embeddings for concept-level metaphor
detection. FrameBERT not only achieves better or comparable performance to the
state-of-the-art, but also is more explainable and interpretable compared to
existing models, attributing to its ability of accounting for external
knowledge of FrameNet.
- Abstract(参考訳): 本稿では,RoBERTa ベースモデルである FrameBERT を提案し,概念レベルのメタファ検出のために FrameNet Embeddings を明示的に学習し,組み込む。
framebertは最先端と同等の性能を発揮するだけでなく、既存のモデルと比較してより説明可能で解釈可能であり、framenetの外部知識を考慮できる能力に起因する。
関連論文リスト
- Language Model as Visual Explainer [72.88137795439407]
本稿では,木構造言語学的説明を用いた視覚モデル解釈のための体系的アプローチを提案する。
提案手法は,属性を付与した木の形で人間に理解可能な説明を提供する。
提案手法の有効性を確認するため,新しいベンチマークを導入し,厳密な評価を行う。
論文 参考訳(メタデータ) (2024-12-08T20:46:23Z) - Visual Representation Learning with Stochastic Frame Prediction [90.99577838303297]
本稿では,フレーム予測における不確実性を捉えることを学ぶ映像生成の考え方を再考する。
フレーム間の時間情報を学習するためのフレーム予測モデルを訓練するフレームワークを設計する。
このアーキテクチャは、両目的を相乗的かつ計算効率のよい方法で組み合わせることができる。
論文 参考訳(メタデータ) (2024-06-11T16:05:15Z) - FrameRS: A Video Frame Compression Model Composed by Self supervised
Video Frame Reconstructor and Key Frame Selector [9.896415488558036]
本稿では,フレーム再構成モデル FrameRS について述べる。
フレーム再構成器 FrameMAE は,Masked Autoencoder for Images (MAE) の原理をビデオコンテキストに適用することによって開発されている。
キーフレームセレクタであるFrame SelectorはCNNアーキテクチャ上に構築されている。
論文 参考訳(メタデータ) (2023-09-16T19:30:05Z) - Create Your World: Lifelong Text-to-Image Diffusion [75.14353789007902]
本稿では,過去の概念の「破滅的忘れ」を克服するために,ライフロングテキスト・画像拡散モデル(L2DM)を提案する。
我々のL2DMフレームワークは,知識の「破滅的忘れ」に関して,タスク対応メモリ拡張モジュールと弾性概念蒸留モジュールを考案している。
我々のモデルは、質的および定量的な指標の両方の観点から、連続的なテキストプロンプトの範囲にわたって、より忠実な画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-08T16:45:56Z) - Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation [93.18163456287164]
本稿では,動画に画像モデルを適用するための新しいテキスト誘導型動画翻訳フレームワークを提案する。
我々のフレームワークは,グローバルなスタイルと局所的なテクスチャの時間的一貫性を低コストで実現している。
論文 参考訳(メタデータ) (2023-06-13T17:52:23Z) - Progressive Tree-Structured Prototype Network for End-to-End Image
Captioning [74.8547752611337]
本稿では,新しいプログレッシブツリー構造型プロトタイプネットワーク(PTSN)を提案する。
PTSNは、階層的テキスト意味論をモデル化することによって、適切な意味論で予測語の範囲を狭める最初の試みである。
提案手法は,144.2%(シングルモデル),146.5%(4モデルのアンサンブル),141.4%(c5),143.9%(c40)のCIDErを公式オンラインテストサーバ上でスコアする。
論文 参考訳(メタデータ) (2022-11-17T11:04:00Z) - Lutma: a Frame-Making Tool for Collaborative FrameNet Development [0.9786690381850356]
本稿では,Global FrameNetイニシアチブにフレームと語彙単位をコントリビュートするためのコラボレーションツールであるLutmaを紹介する。
このツールは、言語とそれらによって符号化された文化的視点の両方の観点から、FrameNetのカバレッジを合理的に拡張することを可能にする、と我々は主張する。
論文 参考訳(メタデータ) (2022-05-24T07:04:43Z) - MHSCNet: A Multimodal Hierarchical Shot-aware Convolutional Network for
Video Summarization [61.69587867308656]
本稿では,MHSCNetと呼ばれるマルチモーダル階層型ショット・アウェア・畳み込みネットワークを提案する。
学習したショット認識表現に基づいて、MHSCNetは、ビデオのローカルおよびグローバルビューにおけるフレームレベルの重要度スコアを予測することができる。
論文 参考訳(メタデータ) (2022-04-18T14:53:33Z) - Transframer: Arbitrary Frame Prediction with Generative Models [21.322137081404904]
本稿では,確率的フレーム予測に基づく画像モデリングと視覚タスクのための汎用フレームワークを提案する。
このフレームワークをTransframerと呼ぶアーキテクチャと組み合わせて、U-NetとTransformerコンポーネントを使ってアノテーション付きコンテキストフレームを条件付けします。
論文 参考訳(メタデータ) (2022-03-17T17:48:32Z) - Sister Help: Data Augmentation for Frame-Semantic Role Labeling [9.62264668211579]
既存のフレーム固有のアノテーションを用いて、注釈のない同じフレームの他の語彙単位を自動的に注釈付けするデータ拡張手法を提案する。
本稿では,このデータ強化の重要性を示すフレーム・セマンティック・ロール・ラベリングの実験を行う。
論文 参考訳(メタデータ) (2021-09-16T05:15:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。