論文の概要: FrameBERT: Conceptual Metaphor Detection with Frame Embedding Learning
- arxiv url: http://arxiv.org/abs/2302.04834v1
- Date: Thu, 9 Feb 2023 18:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 14:51:06.806144
- Title: FrameBERT: Conceptual Metaphor Detection with Frame Embedding Learning
- Title(参考訳): FrameBERT:フレーム埋め込み学習による概念メタファー検出
- Authors: Yucheng Li, Shun Wang, Chenghua Lin, Frank Guerin, Lo\"ic Barrault
- Abstract要約: 本稿では,概念レベルのメタファ検出のために,FrameNet Embeddings を明示的に学習し,組み込むことができる FrameBERT を提案する。
FrameBERTは、最先端の性能や同等のパフォーマンスを達成するだけでなく、既存のモデルよりも説明しやすく解釈しやすい。
- 参考スコア(独自算出の注目度): 14.017480907225066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose FrameBERT, a RoBERTa-based model that can
explicitly learn and incorporate FrameNet Embeddings for concept-level metaphor
detection. FrameBERT not only achieves better or comparable performance to the
state-of-the-art, but also is more explainable and interpretable compared to
existing models, attributing to its ability of accounting for external
knowledge of FrameNet.
- Abstract(参考訳): 本稿では,RoBERTa ベースモデルである FrameBERT を提案し,概念レベルのメタファ検出のために FrameNet Embeddings を明示的に学習し,組み込む。
framebertは最先端と同等の性能を発揮するだけでなく、既存のモデルと比較してより説明可能で解釈可能であり、framenetの外部知識を考慮できる能力に起因する。
関連論文リスト
- Explainable Image Similarity: Integrating Siamese Networks and Grad-CAM [3.686808512438363]
本稿では、視覚的事実と反現実的説明とともに、類似度スコアを提供することを目標とする説明可能な画像類似性の概念を提案する。
本稿では,Siamese Networks と Grad-CAM を統合し,説明可能な画像類似性を提供する新しいフレームワークを提案する。
提案手法は,実世界の画像類似性アプリケーションにおける画像ベースシステムの解釈可能性,信頼性,ユーザ受容性を向上する可能性がある。
論文 参考訳(メタデータ) (2023-10-11T17:21:48Z) - FrameRS: A Video Frame Compression Model Composed by Self supervised
Video Frame Reconstructor and Key Frame Selector [9.896415488558036]
本稿では,フレーム再構成モデル FrameRS について述べる。
フレーム再構成器 FrameMAE は,Masked Autoencoder for Images (MAE) の原理をビデオコンテキストに適用することによって開発されている。
キーフレームセレクタであるFrame SelectorはCNNアーキテクチャ上に構築されている。
論文 参考訳(メタデータ) (2023-09-16T19:30:05Z) - Create Your World: Lifelong Text-to-Image Diffusion [75.14353789007902]
本稿では,過去の概念の「破滅的忘れ」を克服するために,ライフロングテキスト・画像拡散モデル(L2DM)を提案する。
我々のL2DMフレームワークは,知識の「破滅的忘れ」に関して,タスク対応メモリ拡張モジュールと弾性概念蒸留モジュールを考案している。
我々のモデルは、質的および定量的な指標の両方の観点から、連続的なテキストプロンプトの範囲にわたって、より忠実な画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-08T16:45:56Z) - Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation [93.18163456287164]
本稿では,動画に画像モデルを適用するための新しいテキスト誘導型動画翻訳フレームワークを提案する。
我々のフレームワークは,グローバルなスタイルと局所的なテクスチャの時間的一貫性を低コストで実現している。
論文 参考訳(メタデータ) (2023-06-13T17:52:23Z) - Progressive Tree-Structured Prototype Network for End-to-End Image
Captioning [74.8547752611337]
本稿では,新しいプログレッシブツリー構造型プロトタイプネットワーク(PTSN)を提案する。
PTSNは、階層的テキスト意味論をモデル化することによって、適切な意味論で予測語の範囲を狭める最初の試みである。
提案手法は,144.2%(シングルモデル),146.5%(4モデルのアンサンブル),141.4%(c5),143.9%(c40)のCIDErを公式オンラインテストサーバ上でスコアする。
論文 参考訳(メタデータ) (2022-11-17T11:04:00Z) - Lutma: a Frame-Making Tool for Collaborative FrameNet Development [0.9786690381850356]
本稿では,Global FrameNetイニシアチブにフレームと語彙単位をコントリビュートするためのコラボレーションツールであるLutmaを紹介する。
このツールは、言語とそれらによって符号化された文化的視点の両方の観点から、FrameNetのカバレッジを合理的に拡張することを可能にする、と我々は主張する。
論文 参考訳(メタデータ) (2022-05-24T07:04:43Z) - MHSCNet: A Multimodal Hierarchical Shot-aware Convolutional Network for
Video Summarization [61.69587867308656]
本稿では,MHSCNetと呼ばれるマルチモーダル階層型ショット・アウェア・畳み込みネットワークを提案する。
学習したショット認識表現に基づいて、MHSCNetは、ビデオのローカルおよびグローバルビューにおけるフレームレベルの重要度スコアを予測することができる。
論文 参考訳(メタデータ) (2022-04-18T14:53:33Z) - Transframer: Arbitrary Frame Prediction with Generative Models [21.322137081404904]
本稿では,確率的フレーム予測に基づく画像モデリングと視覚タスクのための汎用フレームワークを提案する。
このフレームワークをTransframerと呼ぶアーキテクチャと組み合わせて、U-NetとTransformerコンポーネントを使ってアノテーション付きコンテキストフレームを条件付けします。
論文 参考訳(メタデータ) (2022-03-17T17:48:32Z) - Sister Help: Data Augmentation for Frame-Semantic Role Labeling [9.62264668211579]
既存のフレーム固有のアノテーションを用いて、注釈のない同じフレームの他の語彙単位を自動的に注釈付けするデータ拡張手法を提案する。
本稿では,このデータ強化の重要性を示すフレーム・セマンティック・ロール・ラベリングの実験を行う。
論文 参考訳(メタデータ) (2021-09-16T05:15:29Z) - Metaphor Generation with Conceptual Mappings [58.61307123799594]
我々は、関連する動詞を置き換えることで、リテラル表現を与えられた比喩文を生成することを目指している。
本稿では,認知領域間の概念マッピングを符号化することで生成過程を制御することを提案する。
教師なしCM-Lexモデルは,近年のディープラーニングメタファ生成システムと競合することを示す。
論文 参考訳(メタデータ) (2021-06-02T15:27:05Z) - SF-Net: Single-Frame Supervision for Temporal Action Localization [60.202516362976645]
単一フレームの監視は、低いアノテーションのオーバーヘッドを維持しながら、追加の時間的アクション信号を導入します。
本研究では,SF-Netと呼ばれる単一フレーム監視システムを提案する。
SF-Netは、セグメントローカライゼーションと単一フレームローカライゼーションの両方の観点から、最先端の弱い教師付き手法を大幅に改善する。
論文 参考訳(メタデータ) (2020-03-15T15:06:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。