論文の概要、ライセンス

# (参考訳) 概念マッピングを用いたメタファー生成 [全文訳有]

Metaphor Generation with Conceptual Mappings ( http://arxiv.org/abs/2106.01228v1 )

ライセンス: CC BY 4.0
Kevin Stowe, Tuhin Chakrabarty, Nanyun Peng, Smaranda Muresan, Iryna Gurevych(参考訳) 抽象概念間のニュアンス関係を理解する必要があるため、メタファの生成は難しい作業である。 本稿では,関連する動詞を置換することで,リテラル表現を付与したメタファ文を生成することを目的とする。 概念的メタファー理論の導出により,認知領域間の概念的マッピングを符号化して有意義なメタファー表現を生成することにより,生成過程を制御することを提案する。 これを実現するために,1) FrameNet ベースの埋め込みを用いてドメイン間のマッピングを学習し,レキシカルレベル (CM-Lex) に適用し,2) ソース/ターゲットペアを導出し,制御されたSeq-to-seq生成モデル (CM-BART) を訓練する。 基礎的メタファーと概念的メタファーの存在度を自動的および人間的評価により評価する。 教師なしCM-Lexモデルは近年のディープラーニングメタファ生成システムと競合し,CM-BARTは自動評価と人的評価の両方において,他のモデルよりも優れていることを示す。

Generating metaphors is a difficult task as it requires understanding nuanced relationships between abstract concepts. In this paper, we aim to generate a metaphoric sentence given a literal expression by replacing relevant verbs. Guided by conceptual metaphor theory, we propose to control the generation process by encoding conceptual mappings between cognitive domains to generate meaningful metaphoric expressions. To achieve this, we develop two methods: 1) using FrameNet-based embeddings to learn mappings between domains and applying them at the lexical level (CM-Lex), and 2) deriving source/target pairs to train a controlled seq-to-seq generation model (CM-BART). We assess our methods through automatic and human evaluation for basic metaphoricity and conceptual metaphor presence. We show that the unsupervised CM-Lex model is competitive with recent deep learning metaphor generation systems, and CM-BART outperforms all other models both in automatic and human evaluations.
公開日: Wed, 2 Jun 2021 15:27:05 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Metaphor Generation with Conceptual Mappings 概念マッピングを用いたメタファー生成 0.65
Kevin Stowe1, Tuhin Chakrabarty2, Nanyun Peng3 Kevin Stowe1, Tuhin Chakrabarty2, Nanyun Peng3 0.88
Smaranda Muresan2, Iryna Gurevych1 Smaranda Muresan2, Iryna Gurevych1 0.88
1Ubiquitous Knowledge Processing Lab, Technical University of Darmstadt ダルムシュタット工科大学 ユビキタス知識処理研究室 0.47
https://www.informat ik.tu-darmstadt.de/u kp/ https://www.informat ik.tu-darmstadt.de/u kp/ 0.28
2Columbia University, {tuhin.chakr,smara}@cs.columbia.edu 3University of California Los Angeles, violetpeng@cs.ucla.e du 2Columbia University, {tuhin.chakr,smara}@cs.columbia.edu 3University of California Los Angeles, violetpeng@cs.ucla.e du 0.74
1 2 0 2 n u J 1 2 0 2 n u J 0.85
2 ] L C . s c [ 2 ]LC。 sc [ 0.60
1 v 8 2 2 1 0 1 v 8 2 2 1 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract Generating metaphors is a difficult task as it requires understanding nuanced relationships between abstract concepts. 概要 抽象概念間のニュアンス関係を理解する必要があるため、メタファの生成は難しい作業である。 0.54
In this paper, we aim to generate a metaphoric sentence given a literal expression by replacing relevant verbs. 本稿では,関連する動詞を置換することで,リテラル表現を付与したメタファ文を生成することを目的とする。
訳抜け防止モード: この論文では 関連する動詞を置き換えて、リテラル表現が与えられたメタファー文を生成する。
0.68
Guided by conceptual metaphor theory, we propose to control the generation process by encoding conceptual mappings between cognitive domains to generate meaningful metaphoric expressions. 概念的メタファー理論の導出により,認知領域間の概念的マッピングを符号化して有意義なメタファー表現を生成することにより,生成過程を制御することを提案する。 0.58
To achieve this, we develop two methods: 1) using FrameNetbased embeddings to learn mappings between domains and applying them at the lexical level (CM-Lex), and 2) deriving source/target pairs to train a controlled seq-to-seq generation model (CM-BART). これを実現するために,1)ドメイン間のマッピングを学習するためにFrameNetをベースとした埋め込み法,2)制御されたSeq-to-seq生成モデル(CM-BART)をトレーニングするためにソース/ターゲットペアを導出する手法を開発した。 0.72
We assess our methods through automatic and human evaluation for basic metaphoricity and conceptual metaphor presence. 基礎的メタファーと概念的メタファーの存在度を自動的および人間的評価により評価する。 0.64
We show that the unsupervised CMLex model is competitive with recent deep learning metaphor generation systems, and CM-BART outperforms all other models both in automatic and human evaluations.1 我々は、教師なしCMLexモデルが近年のディープラーニングメタファ生成システムと競合していることを示し、CM-BARTは自動評価と人的評価の両方において、他のモデルよりも優れていることを示す。 0.45
Introduction 1 Recent neural models have led to important progress in natural language generation (NLG) tasks. はじめに 最近のニューラルモデルでは、自然言語生成(NLG)タスクが大幅に進歩している。 0.63
While pre-trained models have facilitated advances in many areas of generation, the field of metaphor generation remains relatively unexplored. 事前訓練されたモデルは、多くの領域で進歩が促進されているが、メタファー生成の分野は比較的未開拓である。 0.55
Moreover, the few existing deep learning models for metaphor generation (Yu and Wan, 2019; Stowe et al , 2020; Chakrabarty et al , 2020) lack any conceptualization of the meaning of the metaphors. さらに、メタファ生成のための数少ないディープラーニングモデル(Yu and Wan, 2019; Stowe et al , 2020; Chakrabarty et al , 2020)では、メタファの意味の概念化が欠けている。 0.67
This work proposes the first step towards metaphor generation informed by the conceptual metaphor theory (CMT) (Lakoff and Johnson, 1980; Lakoff, 1993; Reddy, 1979). 本研究は,概念的メタファー理論 (cmt) (lakoff and johnson, 1980; lakoff, 1993; reddy, 1979) に基づくメタファ生成への第一歩を提案する。 0.77
CMT holds 1All CMTが保持 1All 0.80
code, models, at: コード、モデル、at 0.55
able acl2021-metaphor-gen eration-conceptual 有能なacl2021-metaphor-gen eration-conceptual 0.30
availhttps://github. com/UKPLab/ availhttps://github. com/UKPLab/ 0.43
are made and data 作られています データと 0.61
Figure 1: Metaphor generation guided by conceptual metaphors. 図1:概念的メタファによるメタファ生成。 0.58
Given a literal input, we can generate metaphoric outputs based on different mappings between conceptual domains. 文字通り入力が与えられると、概念領域間の異なるマッピングに基づいてメタファー出力を生成することができる。 0.59
that we use conceptual mappings between domains (conceptual structures that group related concepts) to generate linguistic metaphors.2 Metaphoric mappings consist of a source and a target conceptual domain. 言語的メタファを生成するために、ドメイン間の概念マッピング(関連する概念をグループ化する概念構造)を使用します。2 メタファマッピングは、ソースと対象概念ドメインで構成されます。
訳抜け防止モード: 言語メタファーを生成するために、ドメイン間の概念マッピング(関連する概念をグループ化する概念構造)を使用する メタフォリックマッピングはソースとターゲット概念ドメインから構成される。
0.75
The source domain is the conceptual domain from which we draw the metaphorical expressions, while the target domain is the conceptual domain that we try to understand. ソースドメインは比喩表現を描く概念ドメインであり、ターゲットドメインは理解しようとする概念ドメインである。
訳抜け防止モード: ソースドメインは、メタファー表現を描く概念ドメインです。 対象のドメインは私たちが理解しようとする概念的なドメインです。
0.64
A classical mapping is ARGUMENT IS WAR, in which we conceptualize the target argumentation domain as the more concrete source domain of war: 古典的なマッピングはARGUMENT IS WARで、ターゲットの議論領域をより具体的な戦争のドメインとして概念化します。 0.77
• They fought against the contract. • They defended their new proposal. ・契約に反する。 •彼らは新しい提案を擁護した。 0.50
We focus on verbs, as they are often the key component of metaphoric expressions (Steen et al , 2010; Martin, 2006). 我々は動詞に焦点を合わせ、しばしば比喩表現の重要な要素である(Steen et al , 2010; Martin, 2006)。 0.75
When used metaphorically, verbs typically evoke source domains (e g fought, defended in the above examples): they are concrete, and are used to understand more abstract targets (i.e., argumentation verbs such as argued, supported) via conceptual mappings (Sullivan, 2013). メタファーとして使われる場合、動詞は典型的にソースドメインを呼び起こす(例えば、上記の例で防御される):それらは具体的であり、概念マッピング(sullivan, 2013)を介してより抽象的な対象を理解するのに使用される。 0.79
We propose a novel framework for metaphor generation informed by conceptual metaphor theory. 本稿では,概念的比喩理論に基づくメタファー生成のための新しい枠組みを提案する。 0.58
Given a literal input sentence that evokes a target domain we generate metaphoric sentences that 対象領域を誘発するリテラル入力文が与えられた場合、比喩文を生成する。 0.40
2“Domains” are also often referred to as “image schema”, 2 "Domains" はしばしば "image schema" と呼ばれる。 0.70
“frames”, “scenes”, and more; see K¨ovecses (2020) フレーム”, “シーン” など。 K sovecses (2020) 0.56
英語(論文から抽出)日本語訳スコア
evoke desired corresponding source domain(s).3 For example, given the literal sentence The party ended as soon as she left evoking the target domain CAUSE TO END, we can apply a variety of conceptual mappings to generate different metaphoric outputs evoking different source domains (see Figure 1). 所望の対応するソースドメイン(s.3)例えば、相手がターゲットドメインを呼び出すのをやめるとすぐに終わるリテラル文があると、さまざまな概念マッピングを適用して、異なるソースドメインを誘発する異なるメタファー出力を生成することができる(図1参照)。 0.77
This allows us to generate metaphoric expressions that match known metaphoric mappings, as well as generating from unseen mappings to explore novel metaphors. これにより、既知のメタファマッピングにマッチするメタファ表現を生成したり、未知のマッピングから新しいメタファを探索することもできます。 0.47
Our contributions are: • Two metaphor generation models grounded in CMT: 1) An unsupervised lexical model relying on frame embeddings learned from Framenet (CM-Lex, Section 3.1) and 2) a BART (Lewis et al , 2020) model encoding source/target domain information through fine-tuning (CM-BART, Section 3.2). 私たちの貢献は 1)フレームネット(CM-Lex, section 3.1)から学習したフレーム埋め込みに基づく教師なし語彙モデルと,2)微調整(CM-BART, Section 3.2)によるソース/ターゲットドメイン情報の符号化を行うBART(Lewis et al , 2020)モデルである。 0.77
• Two metaphor generation tasks: 1) generate metaphoric expressions from known concept mappings, for which we provide gold standard test data, and 2) generate novel expressions from unknown metaphors using rare and unseen mappings (Section 4). • 2 つのメタファー生成タスク: 1) 既知の概念マッピングからメタファー表現を生成し、そこで金の標準テストデータを提供し、2) 未知のメタファーから、希少かつ未知のマッピングを用いて新しい表現を生成する(第 4 節)。 0.66
• A thorough evaluation using both automatic and human evaluations (Section 5). • 自動評価と人的評価の両方を用いた徹底的な評価(第5部)。 0.73
We show that our CM-BART model improves over all others in terms of metaphoricity (by ≥ 7%) and domain evocation (by ≥ 33%), and CMLex is competitive with previous neural models on metaphoricity while outperforming them on domain evocation (by ≥ 13%). 我々のCM-BARTモデルは、メタファ性(7%以上)とドメイン実行(33%以上)で他のすべてのモデルよりも改善され、CMLexはメタファ性において従来のニューラルモデルと競合し、ドメイン実行(13%以上)ではそれを上回っている。 0.60
2 Task Definition Traditional metaphor generation models focus only on whether the generated output is in some way “metaphoric” or not. 2 タスク定義 従来のメタファ生成モデルは、生成したアウトプットが"メタフォリック"であるかどうかにのみフォーカスする。 0.67
This ignores the semantic and cognitive properties inherent in metaphoricity. これはメタファー性に内在する意味的および認知的性質を無視している。 0.53
These models can, to some degree, generate metaphors given a literal input, but these outputs often do not evoke the intended metaphor. これらのモデルは、ある程度は、リテラル入力が与えられたメタファーを生成することができるが、これらの出力はしばしば意図されたメタファーを誘発しない。 0.49
Controlled metaphor generation yields critical benefits over these uncontrolled systems. 制御されたメタファー生成は、これらの制御されていないシステムに対して重要な利益をもたらす。 0.37
For sentences in context, having metaphors that are consistent with the text is essential for natural understanding. 文脈における文にとって、テキストと一致したメタファーを持つことは自然な理解に不可欠である。 0.64
Also, metaphors are not only used to express human knowledge, but can also help shape our understanding of the world: having fine-grained control over the generation process allows us to また、メタファーは人間の知識を表現するために使われるだけでなく、世界の理解を形成するのにも役立ちます。
訳抜け防止モード: また、メタファーは人間の知識を表現するのにのみ使われるわけではない。 世界の理解を形作るのにも役立ちます 生成プロセスに対するきめ細かい制御を持つことで
0.72
3We note that this source and target terminology used here 3) ここで使われるソースとターゲットの用語は 0.76
is opposite to that in machine translation. 機械翻訳のそれとは正反対です 0.73
explore novel metaphoric mappings and perhaps improve our understanding of the related domains. 新たなメタファーマッピングを探求し、関連するドメインの理解を深めるでしょう。 0.64
To achieve controlled metaphor generation, we define our task as follows: given a literal input sentence which evokes a target domain and an intended conceptual mapping, generate a metaphoric sentence such that it evokes a desired source domain. 制御されたメタファー生成を実現するために,対象領域と意図する概念マッピングを誘発するリテラル入力文を付与し,所望のソースドメインを誘発するメタファ文を生成する。
訳抜け防止モード: 制御された比喩生成を実現する。 私たちはタスクを次のように定義します。 ターゲットドメインと意図された概念マッピングを誘発する。 所望のソースドメインを誘発するようにメタファ文を生成する。
0.65
Thus, our generation models receive three inputs: 1) a literal input sentence (They argued against the contract), 2) the target domain evoked by the literal input (ARGUMENT) and 3) the desired source domain (WAR) for the metaphorical sentence. したがって,本生成モデルは,1)リテラル入力文(契約に反論する文)、2)リテラル入力(表現)によって誘発される対象領域(表現)、3)メタファ文の所望のソース領域(戦争)の3つの入力を受信する。 0.73
The output is a metaphorical sentence which evokes the intended mapping (They fought against the contract) 出力は、意図したマッピングを誘発する比喩的な文である(彼らは契約と戦った)。 0.57
3 Methods We experiment with two general categories for generation. 3つの方法 我々は2つの一般的なカテゴリーで実験する。 0.64
First, following previous work in metaphor generation and interpretation (Mao et al , 2018; Stowe et al , 2020), we implement lexical methods for replacement, identifying relevant verbs and replacing them with potential candidates for evoking particular mappings. まず, メタファ生成と解釈 (mao et al , 2018; stowe et al , 2020) における先行研究に続いて, 特定のマッピングを誘発する可能性のある動詞の置換, 識別, 置換のための語彙的手法を実装した。 0.73
Second, we experiment with deep learning models, employing controlled sequence-to-sequence generation. 第2に,制御されたシーケンス・ツー・シーケンス生成を用いた深層学習モデルの実験を行う。 0.54
3.1 CM-Lex Metaphor generation can be conceptualized as finding key words and replacing them with metaphoric counterparts. 3.1 cm-lex のメタファ生成は、キーワードの検索とメタファの代用として概念化することができる。
訳抜け防止モード: 3.1 CM - Lex Metaphor 生成をキーワードとして概念化できる 比喩的に置き換えるのです
0.72
This can be done by employing vector spaces, identifying the word most likely to fit in an appropriate context and subjecting them to some constraints of metaphoricity. これはベクトル空間を用いて、適切な文脈に最も適した単語を識別し、比喩的な制約を課すことによって実現できる。 0.64
We build on this paradigm by incorporating facets of conceptual metaphor theory. 我々はこのパラダイムを概念的メタファー理論のファセットを組み込むことで構築する。 0.69
Our procedure is as follows: we learn a joint embedded representations for domains and lexical items. 我々の手順は次のとおりである: ドメインと語彙項目の組込み表現を学ぶ。 0.70
We then use the linear transformation between two domains as a mapping, which can be applied to input words from the target domain to generate a word from the source domain. 次に、2つのドメイン間の線形変換をマッピングとして使用し、対象ドメインからの単語の入力に適用して、ソースドメインから単語を生成する。 0.82
As a proxy for domains, we utilize FrameNet (Baker et al , 1998), which contains semantic frames along with the set of lexical units that evoke them. ドメインのプロキシとして、それらを誘発する語彙単位のセットとともに意味的フレームを含むFrameNet(Baker et al , 1998)を利用する。 0.80
Frames can be defined as related systems of concepts (Fillmore, 1982), which is exchangeable with the term “domain” used in conceptual metaphor theory (Cruse and Croft, 2004). フレームは、概念の関連システム(Fillmore, 1982)として定義することができ、概念的比喩論(Cruse and Croft, 2004)で使われる「ドメイン」という言葉と交換可能である。 0.81
Thus, we consider the transformation from one frame to another as a proxy for a conceptual metaphoric mapping. したがって、あるフレームから別のフレームへの変換を概念的メタファマッピングのプロキシとして考える。 0.66
英語(論文から抽出)日本語訳スコア
We first train FrameNet frame embeddings and employ evaluation metrics to ensure their quality. まず、FrameNetフレームの埋め込みをトレーニングし、その品質を保証するために評価指標を使用します。 0.56
We then apply transformations between domains to literal verbs to generate metaphors grounded in conceptual metaphor theory. 次に、概念的メタファー理論に基づくメタファーを生成するために、ドメインからリテラル動詞への変換を適用する。
訳抜け防止モード: ドメイン間の変換をリテラル動詞に適用します 概念的メタファー理論に基づくメタファーを生成する。
0.63
3.1.1 Learning Frame Embeddings In order to exploit FrameNet frames as conceptual domains, we will embed them in vector space. 3.1.1 フレーム埋め込みの学習 FrameNet フレームを概念的ドメインとして活用するために、それらをベクトル空間に埋め込む。 0.72
While lexical and contextualized embeddings have proven effective, the field of embedding concepts from lexical resources is less well explored (Sikos and Pad´o, 2018; Alhoshan et al , 2019). 語彙的および文脈的埋め込みは有効であることが証明されているが、語彙的資源からの埋め込み概念の分野は、あまりよく研究されていない(Sikos and Pad ́o, 2018; Alhoshan et al , 2019)。 0.54
These methods involve tagging raw corpora using automatic FrameNet parsing and then inputting some combination of the original text and the FrameNet information into standard embedding algorithms. これらの手法は、自動的にFrameNet解析を使用して生コーパスをタグ付けし、元のテキストとFrameNet情報を標準的な埋め込みアルゴリズムに組み込む。 0.72
To train and evaluate frame embeddings, we use 211k sentences of Gold annotations used to train the Open-SESAME parser (Swayamdipta et al , 2017), along with a variety of other automatically tagged datasets: 250k individual sentence from the Gutenberg Poetry Corpus (Jacobs, 2018), 17k from various fiction section of the Brown Corpus (Francis and Kucera, 1979), and 80k sentences randomly selected from Wikipedia. フレーム埋め込みのトレーニングと評価には、Open-SESAMEパーサ(Swayamdipta et al , 2017)のトレーニングに使用されるゴールドアノテーションの211k文に加えて、Gutenberg Poetry Corpus(Jacobs, 2018)の250k文、Brown Corpus(Francis and Kucera, 1979)のさまざまなフィクションセクションから17k文、Wikipediaからランダムに選択された80k文など、さまざまなタグ付けされたデータセットを使用します。 0.73
From this, we extract a 5word context window for each verb, creating 1.8M verb instances. そこで,各動詞に対して5ワードのコンテキストウィンドウを抽出し,1.8Mの動詞インスタンスを生成する。 0.61
We then replace the focus verb with its FrameNet frame label (either provided in the Gold data, or tagged via the parser), and train embedding models on the resulting data. 次に、フォーカス動詞をそのフレームネットフレームラベル(金データに提供されるか、パーサ経由でタグ付けされるか)に置き換え、結果データに埋め込みモデルをトレーニングします。 0.73
This yields joint embedding spaces that contain both common words and FrameNet frame embeddings. これにより、共通語とFrameNetフレームの埋め込みの両方を含む共同埋め込み空間が得られる。 0.62
We define two intrinsic metrics to evaluate the quality of our produced embeddings to enable finetuning and validation. 2つの内在的なメトリクスを定義し、生成した埋め込みの品質を評価し、微調整と検証を可能にします。
訳抜け防止モード: 私たちは2つの固有のメトリクスを定義します 製造した埋め込みの品質を評価し 微調整と検証を可能にします
0.60
First, following Sikos and Pad´o (2018), we can evaluate quality based on the words that evoke that Frame. まず、SikosとPad ́o (2018)に従って、そのFrameを誘発する単語に基づいて品質を評価する。 0.73
FrameNet gives a set of lexical units (LUs) that evoke each frame f. We calculate the lexical similarity by taking the distance from the mean embedding of “local” words (w ∈ f) to the mean embedding of a random sample k of “distant” words (w (cid:54)∈ f): 局所的単語 (w ∈ f) の平均埋め込みから「不規則な」単語 (w (cid:54) のランダムサンプル k の平均埋め込みまでの距離を取ることにより、語彙的類似度を計算する(w (cid:54))。
訳抜け防止モード: FrameNetは、一連の語彙単位(LU)を提供する。 各フレームFを起動します 局所的な単語 (w ∈ f ) の平均埋め込みから「遠い」単語 (w ( cid:54)∂ f ) のランダムなサンプル k の平均埋め込みまでの距離を求めることで、語彙的類似性を計算する。
0.79
lex(f ) = (cid:80) lex(f ) = (cid:80) 0.96
w∈f − k(cid:80) w~f −k(cid:80) 0.59
w(cid:54)∈f w(cid:54)servletf 0.69
cos(Ew,Ef ) cos(Ew,Ef ) 0.85
|f| cos(Ew,Ef ) f| cos(Ew,Ef ) 0.76
k This lexical metric (lex) is evaluates whether the frame embedding is similar to words within its frame and dissimilar to those without. k この語彙計量(lex)は、フレームの埋め込みがそのフレーム内の単語と似ており、それのない単語と異なるかどうかを評価する。
訳抜け防止モード: k この語彙計量(lex)が評価される フレーム埋め込みはフレーム内の単語に似ており、不要なものと異なる。
0.79
FrameNet also contains linking relations between frames (eg. FrameNetにはフレーム間のリンク関係も含まれている。 0.73
used-by, uses), yielding a hierarchy of connected frames. used-by, use) 接続されたフレームの階層を生成する。 0.72
Starting with the assumption that frames connected in the structure フレームが構造に結びついているという仮定から始める 0.83
Figure 2: Lexical generation process 図2:語彙生成プロセス 0.72
should be more similar, we also calculate a structural similarity metric str. もっと似ていなければならないが、構造的類似性計量strも計算する。 0.65
We follow the same process as above, taking the distance between the mean embedding of the local frames n ∈ N, where N is the immediate neighbors of f, to the mean embedding of a sample k of distant frames n /∈ N. 上記と同じプロセスに従い、局所フレーム n ∈ N の平均埋め込み(N は f のすぐ隣りである)から、遠方のフレーム n /∂ N のサンプル k の平均埋め込み(英語版)までの距離を取る。 0.70
str(f ) = (cid:80) str(f ) = (cid:80) 0.96
n∈N − k(cid:80) njn −k(cid:80) 0.66
n(cid:54)∈N n(cid:54)htmln 0.73
cos(En,Ef ) cos(En,Ef ) 0.85
|N| cos(En,Ef ) |N| cos(En,Ef ) 0.72
k We experiment with three lexical embeddings models: word2vec skip-gram (Mikolov et al , 2013), Glove (Pennington et al , 2014), and FastText (Bojanowski et al , 2017). k 我々は, word2vec skip-gram (Mikolov et al , 2013), Glove (Pennington et al , 2014), FastText (Bojanowski et al , 2017) の3つの語彙埋め込みモデルを実験した。 0.88
We experiment with 50, 100, and 300 dimensional representations; we find the 50 dimensional word2vec embeddings perform best for both evaluation metrics.4 我々は,50,100,300次元表現を用いて実験を行い,50次元ワード2ベック埋め込みが両評価指標に最適であることがわかった。 0.70
3.1.2 Embedding Mappings 3.1.2 埋め込みマッピング 0.53
To apply these embeddings to generate metaphors based on conceptual mappings, we learn mappings between frames and apply the mappings directly to lexical items to facilitate lexical replacement. これらの埋め込みを適用して概念写像に基づくメタファを生成するために,フレーム間のマッピングを学習し,語彙項目に直接マッピングを適用することで語彙置換を容易にする。 0.67
We define a mapping m as the pointwise distance between the target frame embedding and the source frame embedding. マッピング m を対象フレームの埋め込みとソースフレームの埋め込みの間の点距離と定義する。 0.75
Following the approach for learning connections between concrete and poetic themes of Gagliano et al (2016), we sum the embedding of the target verb and the mapping m for the selected conceptual mapping, and select the most similar word to the resulting vector. gagliano et al(2016)の具体的テーマと詩的テーマのつながりを学ぶためのアプローチに従い、選択された概念マッピングのための対象動詞とマッピングmの埋め込みを要約し、得られたベクトルと最も類似した単語を選択する。 0.82
This word is then delemmatized using fitbert (Havens and Stal, 2019) and inserted into the original sentence (Figure 2). この単語は、fitbert (havens and stal, 2019) を用いてデレンマティゼーションされ、原文(図2)に挿入される。 0.74
Note that these resulting words are generated without context, as they rely only on the input word and the conceptual mappings. これらの単語は、入力語と概念マッピングのみに依存するため、文脈なしで生成されることに注意してください。 0.72
This approach has benefits: we require no labeled metaphor data, using only embeddings trained on FrameNet-tagged corpora. FrameNetタグ付きコーパスでトレーニングされた埋め込みのみを使用して、ラベル付きメタファーデータを必要としない。 0.50
However, ignoring context is likely detrimental. しかし、文脈を無視することはおそらく有害である。 0.47
In order to better use contextual information, we explore state-of-the-art sequence-tosequence modeling. 文脈情報をよりよく活用するために、最先端のシーケンシャル・トセレンス・モデリングについて検討する。 0.44
4For full frame embedding evaluation, see Appendix A. 4 フルフレーム埋め込み評価については,Appendix A を参照。 0.70
英語(論文から抽出)日本語訳スコア
Literal (filled from LM) That tyranny is destroyed リテラル(LMから充填) ティラニーが破壊される 0.64
The house where love had ended As the moments passed on 愛が終わった家 時が経つにつれ 0.54
What I learned my senses fraught 私の感覚がくしゃくしゃになったこと 0.48
Target Frame DESTRUCTION CAUSE TO END PROCESS END ターゲットフレームの破壊原因は プロセス終了です 0.64
COMING TO BELIEVE What I bear my senses fraught 私の感覚にかかわる「Beleeve」を思い浮かべる 0.48
Metaphoric (original) That tyranny is slain 専制が殺されたというメタファー(オリジナル) 0.43
The house where love had died As the moments roll on 愛が死んだ家 瞬間が進むにつれて 0.54
Source Frame KILLING DEATH ソースフレーム 死を殺して 0.61
CAUSE MOTION BRINGING 運動を起こす 連れ込む 0.39
Table 1: Sample of extracted pairs from the data collection process. 表1: データ収集プロセスから抽出されたペアのサンプル。 0.86
3.2 CM-BART For sequence-to-sequence learning, we fine-tune a pre-trained BART model (Lewis et al , 2020), adding source and target information to guide generation towards the intended metaphors. 3.2 CM-BART シークエンス・ツー・シークエンス・ラーニングでは、事前学習したBARTモデル(Lewis et al , 2020)を微調整し、ソース情報とターゲット情報を付加して、意図したメタファに向けて生成を誘導する。
訳抜け防止モード: 3.2 CM - BART シークエンス - シークエンス学習 We fine - tune a pre- trained BART model (Lewis et al, 2020) ソースとターゲット情報を追加する ジェネレーションを意図した比喩へと導くのです
0.73
We first outline a procedure for generating semi-supervised paired data, then detail the training and generation process. まず、半教師付きペアデータを生成する手順を概説し、次にトレーニングと生成プロセスを詳述する。 0.67
3.2.1 Method for Creating Parallel Data In order to train sequence-to-sequence models for metaphor generation, we require large scale parallel corpora. 3.2.1 並列データ作成手法 メタファー生成のためのシーケンス・ツー・シーケンスモデルを訓練するためには,大規模並列コーパスが必要である。 0.65
We follow the approach of Chakrabarty et al (2021) and build a corpus of literal/metaphoric paraphrases by starting with the Gutenberg Poetry corpus (Jacobs, 2018), identifying and masking metaphoric verbs, and replacing them with infilling from a language model. 我々はchakrabartyら(2021年)のアプローチに従い、グーテンベルク詩集(jacobs, 2018年)から始め、メタファ動詞を識別・マスキングし、言語モデルからのインフィルに置き換えることで、リテラル/メタフォリックパラフレーズのコーパスを構築する。 0.60
We use a BERT-based metaphor classification model trained on the VUA metaphor corpus (Steen et al , 2010) to identify metaphoric verbs in a sentence (i.e “died” in The house where love had died). 我々は、VUAメタファーコーパス(Steen et al , 2010)に基づいて訓練されたBERTに基づくメタファー分類モデルを用いて、文中のメタファー動詞(つまり、愛が死んだ家では「死」)を識別する。 0.59
Then we convert it to a literal sentence (The house where love had ended) using infillings from pre-trained BERT (Devlin et al , 2019). そして、事前訓練されたBERT(Devlin et al , 2019)の埋め合わせを用いて、リテラル文(愛が終わった家)に変換する。 0.70
To ensure the literal sentence with replacements convey the same semantic meaning as the metaphorical sentence they are then filtered using symbolic meaning (SymbolOf relation) obtained from COMET (Bosselut et al , 2019), a GPT based language model fine-tuned on ConceptNet (Speer et al , 2017). 置換文によるリテラル文が比喩文と同じ意味を伝達するために、COMET(Bosselut et al , 2019)から得られた記号的意味(SymbolOf関係)を用いてフィルタリングされる(Speer et al , 2017)。
訳抜け防止モード: 置換文が比喩文と同じ意味を持つようにするために、COMET(Bosselut et al, 2019)から得られた記号的意味(SymbolOf関係)を用いてフィルタリングする。 GPTベースの言語モデルの詳細 - ConceptNet (Speer et al, 2017) をチューニング。
0.72
COMET returns top 5 symbolic beams of (loss, loneliness, despair, sadness and sorrow) for the sentence “The house where love had died” whereas it replaces sorrow with life for the literal version. cometは”the house where love had died”(愛が死んだ家)という文でトップ5の象徴的なビーム(損失、孤独、絶望、悲しみ、悲しみ)を返す。
訳抜け防止モード: 彗星は「愛が死んだ家」という文に対して、トップ5の象徴的なビーム(損失、孤独、絶望、悲しみ、悲しみ)を返す。 リテラル版では悲しみを人生に置き換える。
0.70
While Chakrabarty et al (2021) filter down to only those candidates with an exact match between the top 5 symbolic beams for the literal and metaphorical sentences returned by the COMET model, we ease the restriction to cases where at least four of five symbols are the same. Chakrabarty et al (2021)は、COMETモデルで返されるリテラルと比喩文の上位5つのシンボルビームとを正確に一致させる候補のみをフィルタリングするが、5つのシンボルのうち少なくとも4つが同じである場合に制限を緩和する。 0.78
In order to learn more direct metaphoric information from this data, we additionally tag each sentence with FrameNet frames using the Open-SESAME parser (Swayamdipta et al , 2017). このデータからより直接的な比喩的情報を得るために,Open-SESAMEパーサ(Swayamdipta et al , 2017)を用いて,各文をFrameNetフレームでタグ付けする。 0.75
We extract each pair in which both the focus word in the literal, target-domain sentence and the metaphoric, source-domain sentence are assigned a FrameNet frame. リテラル中のフォーカスワード、ターゲットドメイン文、メタファー、ソースドメイン文の両方がフレームネットフレームに割り当てられたペアを抽出する。 0.63
We then make the assumption that the relation between the frames for the source and target domains reflects a metaphoric mapping. 次に、ソースドメインとターゲットドメインのフレーム間の関係がメタファマッピングを反映していると仮定する。 0.68
This then yields a dataset of paired sentences for which we have a metaphoric mapping between domains based on FrameNet for the focus verbs. これにより、フォーカス動詞のためのフレームネットに基づくドメイン間のメタファーマッピングを持つペア文のデータセットが得られる。 0.79
Samples of the created data are shown in Table 1. 生成されたデータのサンプルを表1に示す。 0.86
In total this process yields 248k sentences spanning 8.5k unique mappings between FrameNet frames. このプロセスは、FrameNetフレーム間の8.5kのユニークなマッピングにまたがる248kの文を生成する。 0.50
Each pair comprises a literal and metaphoric sentence, along with the literal target frame and the metaphoric source frame. 各ペアは、リテラルとメタファーの文と、リテラルのターゲットフレームとメタファーのソースフレームとからなる。 0.66
From these we can directly train a sequence to sequence model for conceptual metaphor-based generation. これらから、概念的比喩に基づく生成のためのシーケンスからシーケンスモデルを直接訓練することができる。 0.58
3.2.2 Models We fine-tune BART (Lewis et al , 2020), a pretrained conditional language model that combines bidirectional and auto-regressive transformers, on the created parallel corpora described in Section 3.2.1. 3.2.2 モデル we fine-tune bart (lewis et al , 2020) - 双方向トランスフォーマーと自己回帰トランスフォーマーを組み合わせた事前学習された条件付き言語モデル。 0.65
We incorporate representations of the frame information to allow this model to control for the metaphoric mappings evoked. フレーム情報の表現を組み込んで,このモデルが誘発されるメタファマッピングの制御を可能にする。 0.70
To transform a literal sentence from a given target domain to a metaphorical sentence evoking a specific source domain, we incorporate both target and source domains (as FrameNet frames) into the textual representation as a control code, following the work of Schiller et al (2020) who used this procedure for Argument Generation. 特定のソースドメインを誘発するメタファ的文にリテラル文を変換するために、ターゲットドメインとソースドメインの両方(フレームネットフレームとして)を制御コードとしてテキスト表現に組み込む。
訳抜け防止モード: 特定のソースドメインを呼び出す比喩文に、リテラル文を所定のターゲットドメインから変換する。 ターゲットドメインとソースドメインの両方(FrameNetフレームなど)をコントロールコードとしてテキスト表現に組み込んでいます。 Schiller et al (2020 ) の作業に続き、この手順をArgument Generation に使用した。
0.77
Following the example from Figure 1, the input literal text fed to the BART encoder would be: 図1の例に従うと、BARTエンコーダに入力された入力リテラルテキストは次のようになる。 0.77
• DEATH (cid:104)EOT(cid:105 ) The party (cid:104)V (cid:105) ended : CAUSE TO END (cid:104)V (cid:105) as soon as she left. • DEATH (cid:104)EOT (cid:105) The party (cid:104)V (cid:105) ended : CAUSE TO END (cid:104)V (cid:105)。 0.93
where (cid:104)EOT(cid:105 ) and (cid:104)V (cid:105) are delimiters, DEATH is the source frame, and CAUSE TO END the target frame. ここで (cid:104)EOT(cid:105 ) と (cid:104)V (cid:105) はデミッタ、DEATH はソースフレーム、CAUSE to END はターゲットフレームである。 0.81
The decoding target is the metaphoric text “The party died as soon as she left”, which evokes the CAUSE TO END IS DEATH mapping. 解読のターゲットは、メタファー的なテキスト “the party died as she left” で、これは死のマッピングを終わらせる原因となった。 0.68
Note that our training data differs only at the level of a single verb. トレーニングデータは、単一の動詞のレベルでのみ異なることに注意してください。 0.74
We use the generative BART seq2seq model to generate metaphoric paraphrases, 生成的BART seq2seqモデルを用いてメタファのパラフレーズを生成する。 0.62
英語(論文から抽出)日本語訳スコア
but due to the nature of the training data and the importance of verbs in metaphoric expressions, this is often realized in the output as lexical replacement. しかし、訓練データの性質と比喩表現における動詞の重要性から、これはしばしば語彙的代用として出力において実現される。 0.76
Post fine-tuning, we use top-k (k=5) sampling (Fan et al , 2018) to generate metaphors conditioned on the input literal sentence and source and target domains for the required metaphoric mapping.5 We evaluate the lexical model (CM-Lex) and the sequence-to-sequence model (CM-BART) under two experimental settings. 微調整後,入力リテラル文とソースおよびターゲットドメインに条件付きメタファを生成するためにトップk(k=5)サンプリング(Fan et al , 2018)を用い,必要なメタファのマッピングを行う。5 語彙モデル(CM-Lex)とシーケンス・ツー・シーケンスモデル(CM-BART)を2つの実験条件下で評価する。 0.66
4 Experimental Setup 4実験的セットアップ 0.90
We evaluate our metaphor generation methods against two previous approaches to metaphoric paraphrase generation: the MERMAID system (Chakrabarty et al , 2021) and the metaphor masking model (MetMask) (Stowe et al , 2020). MERMAIDシステム (Chakrabarty et al , 2021) とメタファーマスキングモデル (MetMask) (Stowe et al , 2020) の2つのメタファーパラフレーズ生成手法を比較検討した。 0.57
We explore two tasks: generating against gold standard metaphoric expressions, and using rare and unseen metaphoric mappings. 金の標準的メタファ表現に対する生成と、希少で見当たらないメタファマッピングの2つのタスクについて検討する。 0.47
For the former, we build a gold test set of metaphoric paraphrases that evoke a particular source/target mapping. 前者に対しては、特定のソース/ターゲットマッピングを誘発するメタファ的なパラフレーズのゴールドテストセットを構築します。 0.58
For the latter, we apply a variety of source/target mappings to literal inputs for which we do not have gold outputs. 後者については、金の出力を持たないリテラル入力に様々なソース/ターゲットマッピングを適用する。 0.68
4.1 Building a Test Set For a test set, we use the same procedure as our data collection approach from Section 3.2.1. 4.1 テストセットの構築 テストセットでは、セクション3.2.1からのデータ収集アプローチと同じ手順を使用します。 0.81
We apply this procedure to two datasets: a sample of the Gutenberg Poetry Corpus and a sample of fiction from the Brown Corpus (Francis and Kucera, 1979). この手順をグテンベルク詩人コーパスのサンプルとブラウンコーパスのフィクションのサンプルの2つのデータセットに適用する(Francis and Kucera, 1979)。
訳抜け防止モード: この手順を2つのデータセットに適用する : Gutenberg Poetry Corpus のサンプル そして、ブラウン・コーパスのフィクションのサンプル(Francis and Kucera, 1979)。
0.76
This generates an initial set of literal/metaphoric pairs. これはリテラル/メタフォリックペアの初期セットを生成する。 0.60
We also tagged the pairs from Mohammad et al (2016) with FrameNet tags, as these generally contain novel, well-formed metaphors. 私たちはまた、Mohammad et al (2016)からFrameNetタグをタグ付けしました。 0.47
These three datasets each have different properties with regard to metaphor. これら3つのデータセットはそれぞれ、比喩に関して異なる特性を持っている。 0.50
The Gutenberg Poetry corpus has consistent, novel metaphors, but often unconventional syntactic constructions, due to the poetic nature of the text. グーテンベルク詩集は一貫性があり、新しいメタファーがあるが、詩的性質から、しばしば非慣習的な構文的構成を持っている。 0.64
The Mohammad 2016 corpus contains manually constructed metaphors which are novel, following relatively basic syntactic patterns. モハンマド2016コーパスは、比較的基本的な構文パターンに従って、新しい手作業で構築されたメタファを含んでいる。
訳抜け防止モード: Mohammad 2016コーパスには手作業によるメタファーが含まれている。 比較的基本的な構文パターンに従っています
0.51
The Brown Corpus is standard fiction texts, so the metaphors within tend to be very conventional. ブラウンコーパスは標準的なフィクションのテキストなので、そのメタファーは非常に一般的である。 0.60
From these sources, we draw pairs randomly, checking that they reflect strong literal/metaphoric paraphrases until we obtain 50 instances from each set. これらのソースからペアをランダムに描画し、各セットから50インスタンスを取得するまで、強いリテラル/メタフォリックなパラフレーズを反映していることを確認します。 0.52
Each pair is tagged with FrameNet frames for the focus verbs, which comprise the metaphoric 各ペアは、比喩を構成するフォーカス動詞のためのFrameNetフレームでタグ付けされる 0.78
5Full parameter tuning outlined in Appendix C. 5FullパラメータチューニングがAppendix Cで概説されている。 0.60
mapping.6 For the Brown corpus, metaphoric expressions were relatively rare, and thus valid pairings were sparse: to overcome this, we manually modified 11 of the expressions to evoke the appropriate metaphoric mappings. マッピング.6 ブラウンコーパスでは比喩表現は比較的稀であり,有効なペアリングは少なく,これを克服するために,適切な比喩表現を誘発するために11の式を手作業で修正した。 0.64
process literal/metaphoric pairs, along with the source and target frames that they evoke. プロセス リテラル/メタフォリックペアと、それらが誘発するソースとターゲットフレーム。 0.68
We use this dataset to evaluate generating metaphors based on mappings with gold standard outputs, using both automatic and human-based evaluations. 本データセットを用いて,金標準出力のマッピングに基づくメタファ生成を,自動評価と人為評価の両方を用いて評価する。
訳抜け防止モード: このデータセットを使って 金標準出力のマッピングに基づくメタファーの生成 自動評価と人間評価の両方を使用すること。
0.79
yielded 150 yielded~ 150 0.76
In total this 院 total これ 0.67
4.2 Expanding to Unknown Metaphors 4.2 未知のメタファーの拡張 0.61
To explore the flexibility of the system developed in this study, we also evaluate them for generation of metaphoric expressions that are not directly linked to gold literal/metaphoric pairs. そこで本研究では, 金リテラル/メタフォリックペアと直接関係のないメタファー表現を生成するために, システムの柔軟性を検討する。 0.64
For this, we begin with our 150 pairs from above, but consider only the literal sentence and the evoked target domain. このために、私たちは上から150対から始めますが、リテラル文と誘発されたターゲットドメインのみを検討します。 0.64
For each sentence, we generate two source domains that could potentially map to the target. 各文に対して、ターゲットにマッピング可能な2つのソースドメインを生成します。 0.79
These are selected in order to identify rare and unseen mappings based on the observed mappings in our training data. これらはトレーニングデータ内の観測されたマッピングに基づいて、希少なマッピングと未知のマッピングを識別するために選択されます。
訳抜け防止モード: これらは順番に選択される トレーニングデータの観察されたマッピングに基づいて 稀で目に見えないマッピングを識別します
0.68
For rare mappings we select a source domain at random from the mappings with the median frequency for a given target domain. 稀なマッピングでは、所定の対象領域に対して中央周波数のマッピングからランダムにソース領域を選択する。 0.75
For unseen mappings we select a source domain at random from the FrameNet frames that are never used as a source for the given target domain. 見えないマッピングでは、指定されたターゲットドメインのソースとして使用されないFrameNetフレームから、ランダムにソースドメインを選択する。 0.79
This set contains only the tuple (input sentence, target domain, source domain) needed as input to our models; we do not have gold generated metaphorical utterances. このセットには、モデルへの入力に必要なタプル(入力文、ターゲットドメイン、ソースドメイン)のみが含まれています。
訳抜け防止モード: この集合はタプル(入力文、対象領域)のみを含む。 ソースドメイン ) モデルへの入力として必要です。 金はメタファー的発話を 生み出していません
0.69
Thus, on this set we will only perform human-based evaluation of the quality of the generated metaphors. したがって、このセットでは、生成されたメタファーの品質の人間による評価のみを行う。 0.64
4.3 Automatic Evaluation Metrics 4.3 自動評価指標 0.77
Word overlap metrics (eg. word overlap metrics (複数形 word overlap metrics) 0.58
BLEU, ROUGE) are inherently weak for this task, as these sentences inherently have high overlaps. BLEU, ROUGE)は、これらの文が本質的に高い重なり合いを持つため、このタスクには本質的に弱い。 0.56
So instead, we employ semantic distance metrics. そこで、私たちはセマンティック距離メトリクスを使用します。 0.58
We generate sentence embeddings using SBERT7 (Reimers and Gurevych, 2019) for each of our components: the literal input L, the original gold metaphoric expression M, and the generated output G. sbert7 (reimers and gurevych, 2019) を用いて文字入力l, 金のメタファー表現m, 生成された出力gの各要素に対して文埋め込みを生成する。 0.61
6In 22 cases, parsing errors in FrameNet frames were man- 6 22例において、FrameNetフレームのパースエラーは人間であった。 0.59
ually corrected. Ually corrected. 0.79
7Specifically using the roberta-large model, which 7 roberta-large model を用いた。 0.81
shows the best performance for sentence similarity tasks. 文類似性タスクの 最高のパフォーマンスを示します 0.73
英語(論文から抽出)日本語訳スコア
Model MetMask MERMAID CM-Lex CM-BART MERMAID CM-Lex CM-BARTモデル 0.73
dis .191 .147 .151 .085 dis .191 .147 .151 .085 0.71
rel mean %= .094 .087 .133 .087 .107 .086 .047 .293 rel mean %= .094 .087 .133 .087 .107 .086 .047 .293 0.73
.143 .117 .122 .066 .143 .117 .122 .066 0.65
Table 2: Automatic evaluation for metaphor generation systems. 表2:メタファ生成システムの自動評価。 0.66
%= indicates the percentage that matched the gold metaphor exactly. %=は金の比喩と一致する割合を示す。 0.71
4.3.1 Distance from Gold Metaphor (dis) The generated metaphoric expressions should match the semantics of the original gold metaphor. 4.3.1 ゴールドメタファーからの距離(dis) 生成されたメタファー表現は、オリジナルのゴールドメタファーのセマンティクスと一致するべきである。 0.50
We can evaluate this using the cosine distance, here between M and G. As SBERT embeddings have been shown to reflect semantic similarity and entailment between paired sentences, this metric should be capable of capturing whether the generated metaphoric expression matches the gold. SBERTの埋め込みは、ペア化された文間の意味的類似性を反映していることが示されているので、この計量は生成された比喩表現が金と一致するかどうかを把握できるはずである。 0.60
4.3.2 Relational distance (rel) Assuming that conceptual metaphoric mappings are responsible for the connecting of meaning between our literal and metaphoric sentences, we would also expect there to be a relation that holds between the original literal input L and metaphoric output M. This relation should also hold between the L and the generated metaphor G. As a simple metric we can employ cosine distance: we aim for minimizing the distance between cos(L, M ) between cos(L, G). 4.3.2 リレーショナル距離 (rel) 概念的メタファマッピングがリテラルとメタファの文間の意味の接続に責任を負うと仮定すると、元のリテラル入力 L とメタファの出力 M の間にも関係があることを期待する。
訳抜け防止モード: 4.3.2 関係距離(rel) 概念的比喩的マッピングは、リテラルと比喩的な文の間の意味の接続に責任がある。 また、元のリテラル入力 L の間には関係があると期待する。 この関係はLの間の関係も保たなければならない。 そして生成された比喩 G。 単純な計量としてコサイン距離を用いることができる : cos(L, M) と cos(L, G) の間の距離を最小化する。
0.75
Finally, we include the percentage of times the 最後に、私たちはその割合を 0.55
model produced the exact gold output. モデルは正確な金の出力を生み出しました 0.61
5 Results and Analysis Results for automatic evaluation on the 150 gold metaphors are shown in Table 2. 5の結果と150金のメタファーの自動評価のための分析結果が表2に示されている。 0.75
Note that we cannot automatically evaluate against rare or unseen metaphoric mappings, as we lack gold metaphors. 金の比喩が欠如しているため、希少または無形の比喩写像に対して自動的に評価することはできないことに注意。 0.40
The CM-Lex model is competitive with the best neural baseline, which is encouraging. cm-lexモデルは、最高のニューラルネットワークベースラインと競合しています。 0.61
This shows that simply incorporating basic understanding of conceptual mappings can be a powerful tool for metaphor generation. このことは、概念マッピングの基本的な理解を単に組み込むことがメタファー生成の強力なツールであることを示している。 0.59
The CM-BART yields the best automatic performance over all metrics, significantly outperforming all other models (p < .01, paired t-test. CM-BARTは他の全てのモデル(p < .01, paired t-test)よりも大幅に上回っている。 0.66
). Automatic metrics allow us to quickly prototype metaphoric generation systems based in conceptual metaphor theory. ). 自動メトリクスは、概念的メタファ理論に基づいたメタファ生成システムをすばやくプロトタイプできる。 0.75
However, they rely on SBERT and inherit the biases and weaknesses therein. しかし、彼らはSBERTに依存し、そのバイアスと弱点を継承します。 0.57
We also perform human evaluations, against both the gold test data and the set of rare and unseen mappings. また、金の試験データと希少なマッピングのセットの両方に対して、人間による評価も行います。 0.61
Model MetMask MERMAID CM-Lex CM-BART MERMAID CM-Lex CM-BARTモデル 0.73
Met 2.27 2.56 2.34 2.72 2.27.56 2.34 2.72 0.54
Src Met 1.60 2.12 2.43 2.87 Src Met 1.60 2.12 2.43 2.87 0.55
2.28 2.41 - 2.28 2.41 - 0.68
Gold Rare Unseen Src Met- 金 レア 見えない Src Met- 0.65
- 2.10 2.70 - 2.10 2.70 0.68
1.58 2.41 Src- 1.58 2.41 Src- 0.64
1.14 2.01 Table 3: Human evaluations for metaphoricity (Met) and source domain evocation (Src). 1.14 2.01 表3: 比喩性(Met)とソースドメイン実行(Src)に対する人的評価。 0.64
5.1 Human Evaluation For human evaluation, we defined two objectives. 5.1 人間の評価には2つの目的を定義した。 0.67
First, we aim to capture the metaphoricity of the output, as a core objective. まず、コア目的として、出力の比喩性を捉えることを目的とする。 0.70
The outputs should evoke novel, interesting metaphors regardless of the domains involved. アウトプットは、関係するドメインに関係なく、新しく興味深いメタファーを呼び起こすべきである。 0.45
Second, we want the generated metaphoric outputs to evoke the source domains (eg. 第2に、生成したメタファ的なアウトプットがソースドメイン(例えば、)を誘発したいと思っています。 0.47
“She destroyed his argument” evokes the source domain of WAR). 「彼女は彼の議論を破壊した」と、WARのソースドメインを思い起こさせる)。 0.59
We recruited three domain experts in metaphoricity. 私たちはメタファ性でドメインの専門家を3人雇った。 0.42
They were instructed to rate each instance on a scale from 1 (not at all) to 4 (very) for metaphoricity and for whether it evokes the source domain. 彼らは、比喩性とそれがソースドメインを引き起こすかどうかについて、各インスタンスを1(全く)から4(非常に)のスケールで評価するように指示された。 0.58
If the sentence was completely unintelligible, they were instructed to mark it as 0 for both categories. 文が全く理解できない場合、両方のカテゴリーで0とマークするよう指示された。 0.67
For metaphoricity, annotators were given brief definitions of metaphoricity which they incorporated into their expert knowledge to best rate metaphors. メタファ性について、注釈家は専門家の知識に組み込んだメタファ性に関する簡単な定義を与えられた。 0.53
For source domain evocation, they were additionally provided with links to the respective FrameNet frames. ソースドメインの呼び出しには、各FrameNetフレームへのリンクが追加されている。 0.74
We evaluate three different models for the gold metaphors: the best performing previous model, MERMAID, as well as the lexical and CM-BART models. 本研究は,ゴールドメタファーの3つのモデル,MERMAID,レキシカルモデル,CM-BARTモデルについて評価する。 0.59
For all models we evaluate generation using the mappings for our gold test set. すべてのモデルに対して、ゴールドテストセットのマッピングを使って生成を評価します。 0.65
For the unknown metaphors without gold sentences, we only evaluate our two controlled models, as the generic baselines give the same output regardless of the intended source. 金の文を含まない未知のメタファーに対しては、2つの制御されたモデルのみを評価し、ジェネリックベースラインは意図されたソースに関係なく同じ出力を与える。 0.63
This yields a total of 450 sentences (150 gold, 300 without) that are evaluated for metaphoricity and source domain. これにより450の文(150金、300金無し)が作成され、比喩性とソースドメインとして評価される。 0.57
All three experts annotated a random set of 100 training sentences, in order to determine the feasibility and agreement for this task. 3人の専門家全員が、このタスクの実行可能性と合意を決定するために、無作為な100の訓練文に注釈を付けました。 0.58
Agreement rates were .50 for metaphoricity and .37 for source domain (Krippendorff’s α).8 5.1.1 Gold Test Mappings Results for human evaluations of gold, rare, and unseen metaphoric mappings are shown in Table 3. 表3では、メタファー性は.50、ソースドメインは.37(krippendorff 7;s α.8 5.1.1 gold test mappings for human evaluations of gold, rare, and unseen metaphoric mappings)が示される。 0.83
With regard to the gold mappings, the CM-BART model performs best in metaphoricity and source 金のマッピングに関して、CM-BARTモデルは比喩性と情報源において最善を尽くす 0.59
8Full annotation analysis can be found in Appendix B. 8Fullアノテーション分析はAppendix Bで見ることができる。 0.77
英語(論文から抽出)日本語訳スコア
Input/TARGET/SOURCE Input/TARGET/SOURCE 0.39
He resisted the panic of vertigo 彼はめまいのパニックに抵抗した 0.61
SELF CONTROL IS SELF コントロール I 0.65
QUARRELING A dim aurora rises in my east クアリング 私の東に薄暗いオーロラが昇る 0.49
CHANGE POSITION ON A SCALE スケール上の変化位置 0.54
IS RESIDENCE People were running out of the theater 住居です 人々は劇場を駆け抜けていました 0.54
SELF MOTION IS FLUIDIC MOTION 自己運動は流動運動である 0.42
Model Gold MetMask MERMAID CM-Lex CM-BART モデルゴールド MetMask CM-Lex CM-BART 0.74
Gold MetMask MERMAID CM-Lex CM-BART 金 MetMask CM-Lex CM-BART 0.68
Gold MetMask MERMAID CM-Lex CM-BART 金 MetMask CM-Lex CM-BART 0.68
Output Met Src He fought the panic of vertigo 出力 会い Src 彼はめまいのパニックと戦った 0.67
He got the panic of vertigo He felt the panic of vertigo 彼はめまいのパニックになった 彼はめまいのパニックを感じた 0.60
He confrontations the panic of vertigo 彼はめまいのパニックに直面する 0.61
He disputed the panic of vertigo A dim aurora lives in my east A dim aurora kicked in my east A dim aurora hangs in my east A dim aurora stands in my east A dim aurora lives in my east 彼は私の東にディムオーロラ、私の東にディムオーロラ、私の東にディムオーロラ、私の東にディムオーロラ、私の東にディムオーロラ、私の東にディムオーロラ、私の東にディムオーロラ、私の東にディムオーロラ、 0.55
People were streaming out of the theater People were clogged out of the theater People were running out of the theater People were boiling out of the theater People were spilled out of the theater 人々は劇場から流れ出し、人々は劇場から締め出され、人々は劇場から逃げ出され、人々は劇場から沸騰し、人々は劇場から流出しました 0.64
3 1 0 3 3 4 3 3 3 1 0 3 3 4 3 3 0.85
4 1 4 4 1 2 0 4 4 1 4 4 1 2 0 4 0.85
1 2 3 4 1 4 4 3 1 2 3 4 1 4 4 3 0.85
Table 4: Example outputs of each system along with the mean of their human evaluations. 表4: 各システムの出力を人的評価の平均値とともに例示する。 0.81
TARGET/SOURCE TARGET/SOURCE 0.59
OPERATE VEHICLE IS Rare: SELF MOTION 自走車「OPERATE VEHICLE」(動画あり) 0.50
Unseen: DEATH Unseen: DEATH 0.85
DISTRIBUTED POSITION IS Rare: GIVING 分布位置IS Rare: GIVING 0.70
Unseen: SURRENDERING POSSESSION Unseen:Surrendering POSSESSION 0.71
DISPERSAL IS Rare: ATTEMPT Dispersal: AtTEMPT 0.29
Unseen: WARNING Unseen: WARNING 0.85
Model Input CM-Lex CM-BART CM-Lex CM-BART モデル入力 CM-LexCM-BARTCM-LexC M-BART 0.64
Input CM-Lex CM-BART CM-Lex CM-BART 入力 CM-LexCM-BARTCM-LexC M-BART 0.63
Input CM-Lex CM-BART CM-Lex CM-BART 入力 CM-LexCM-BARTCM-LexC M-BART 0.63
Output The car drove up alongside him The car drove up alongside him The car ran up alongside him The car fell up alongside him The car died up alongside him 出力 車は彼と一緒に運転し、車は彼と一緒に走り上がり、車は彼と一緒に倒れ、車は彼と一緒に死んだ 0.72
The meat was covered in a fatty gravy The meat was raised in a fatty gravy The meat was given in a fatty gravy The meat was cut in a fatty gravy 肉は脂肪グレイビーで覆われていた 肉は脂肪グレイビーで育てられた 肉は脂肪グレイビーで与えられた 肉は脂肪グレイビーで切られた 0.64
The meat was yielded in a fatty gravy At last the darkness began to dissolve 肉は、ついに暗闇が溶け始めると、脂肪の脂肪分で産み出された 0.68
At last the darkness began to gorn At last the darkness began to try ついには闇がうろつくようになり、ついに闇は試し始めた。 0.53
At last the darkness began to Giffen At last the darkness began to bite ついに暗闇がギッフェンになり、ついに闇が噛み始めた 0.47
Met Src 1 4 4 4 会い Src 1 4 4 4 0.71
4 2 1 3 0 4 0 4 4 2 1 3 0 4 0 4 0.85
1 4 4 2 1 4 1 4 1 4 4 2 1 4 1 4 0.85
0 4 0 1 1 2 0 4 0 1 1 2 0.85
3 1 2 3 Table 5: Examples of system outputs on rare and unknown metaphoric mappings. 3 1 2 3 表5: 希少かつ未知のメタファーマッピングにおけるシステム出力の例。 0.84
domain evocation. ドメインの呼び出し。 0.65
CM-Lex has middling performance for metaphoricity, but does well at generating correct source domains. CM-Lexはメタファ性に優れていますが、正しいソースドメインを生成するのに適しています。 0.56
The MERMAID system performs well in terms of metaphor generation, but fails to capture the intended source domain. MERMAIDシステムは、メタファー生成の観点からはよく機能するが、意図したソースドメインを捕捉できない。 0.65
Examples of each model’s generation are shown in Table 4. 各モデルの生成例を表4に示す。 0.65
In 1, we see that CM-Lex generates noise, making the results unintelligible. 1 では、CM-Lex はノイズを発生し、その結果は理解できない。 0.63
CM-BART is more robust, generating fluent expressions, and shows evidence of conceptual mapping control, generating a metaphoric expression matching the source domain. CM-BARTはより堅牢で、流動的な表現を生成し、概念マッピング制御の証拠を示し、ソースドメインと一致する比喩表現を生成する。 0.70
In 2, the MetMask and MERMAID models generate reasonable metaphors, which do not evoke the intended domain. 2 では、MetMask と MERMAID モデルが合理的なメタファーを生成し、意図した領域を誘発しない。 0.68
CM-Lex is better, generating “stand” which can reflect RESIDENCE, while the CM-BART performs best, generating the gold metaphoric expression. CM-Lex は RESIDENCE を反映した "stand" を生成し、CM-BART は金の比喩表現を生成する。 0.73
In 3, we see that the unconstrained models generate effective expressions: ”clog” is an evocative metaphor, and ”running”, while literal, can match the intended domain via the idea of running water. ”clog”は挑発的なメタファーであり、”runing”は文字通り、水を流すというアイデアによって、意図したドメインにマッチする。
訳抜け防止モード: 3では 訓練されていないモデルは効果的な表現を生成します clog ” は挑発的なメタファーです。 そして”runing ”は、文字通り、水を流すというアイデアによって、意図したドメインとマッチする。
0.71
However, our controlled methods both generate novel metaphors that directly evoke the source do- しかし、制御された手法はどちらも、ソースDoを直接誘発する新しいメタファーを生成する。 0.57
main, showing the effectiveness of incorporating conceptual information in generation. mainは、概念情報を世代に組み込む効果を示す。 0.68
Overall, we see that the unconstrained models often generate good metaphors, but lack consistency with the input, as they are naive with regard to the conceptual backing of these metaphoric expressions. 全体としては、制約のないモデルは良い比喩を生成することが多いが、これらの比喩表現の概念的支持に関して素直であるので、入力との整合性が欠如している。
訳抜け防止モード: 全体として、制約のないモデルは良いメタファーを生み出すことが多い。 入力との整合性が欠如しています 比喩表現の概念的な支持に関して 素直です
0.55
CM-Lex is effective to some degree, even without metaphoric training data, and CM-BART performs best, generating novel metaphors that frequently match the intended metaphoric expression. CM-Lex は比喩的訓練データなしである程度有効であり、CM-BART は最善を尽くし、意図した比喩表現によく一致する新しい比喩を生成する。 0.58
5.1.2 Unknown Metaphor Mappings CM-BART outperforms CM-Lex for metaphoricity and source domain evocation for rare and unseen source domains. 5.1.2 未知メタファーマッピング CM-BART は、希少かつ未確認のソースドメインに対する比喩性とソースドメインの呼び出しでCM-Lex を上回っている。 0.52
Examples of the two proposed models’ generated for rare and unseen metaphoric mappings are shown in Table 5. 希少かつ不明瞭なメタファマッピングのために生成された2つのモデル例を表5に示す。 0.71
Example 1 shows the ideal case. 例1は理想的な場合を示す。 0.74
When given a source domain from a ”rare” mapping, the resulting metaphor is fairly reasonable. マッピングからソースドメインを与えられると、結果として生じるメタファはかなり合理的です。
訳抜け防止モード: "レア"マッピングからソースドメインが与えられると、 結果として生じる比喩は かなり合理的です
0.60
CM-BART generates a metaphor consistent with the original semantics; CM-Lex generates the literal utterance. CM-BARTは、元の意味論と一致するメタファーを生成し、CM-Lexはリテラル発話を生成する。 0.57
When presented with an unseen mapping in which oper- oper (countable かつ uncountable, 複数形 opers) 0.18
英語(論文から抽出)日本語訳スコア
ating a vehicle is framed as death, we get diverse expressions, both adding meaning to the original utterance. 車両の運転は死の枠で 様々な表現が得られます どちらも本来の発話に 意味を付加します 0.67
CM-Lex uses the verb ”fell” (albeit incorrectly conjugated), which can be used to abstractly evoke the death domain, while CM-BART directly uses the verb ”die”. CM-Lex は動詞 "fell" を、CM-BART は動詞 "die" を直接使用しながら、死領域を抽象的に引き起こすのに使われる。 0.70
The original expression can be ambiguous as to whether the car stopped: the evoked metaphor enforces the stoppage of the car, and also provides color to the expression. 元々の表現は、車が停止したかどうかについて曖昧である: 誘発されたメタファーは、車の停止を強制し、表現に色を与える。 0.65
Example 3 highlights a key issue: when the source and target domains are too incongruent, the generated expressions can be inconsistent. 例3では、重要な問題を強調している。 ソースドメインとターゲットドメインがあまりにも不合理である場合、生成された式は矛盾する可能性がある。
訳抜け防止モード: 例3: ソースドメインとターゲットドメインが不合理すぎると、生成された式は矛盾する可能性がある。
0.64
CM-Lex here again generates noise. CM-Lexは再びノイズを発生させる。 0.59
However, CM-BART generates normal, expressive metaphors, which are nonetheless incompatible with the original literal input, which denotes the lessening of darkness. しかし、CM-BARTは正規表現的なメタファーを生成するが、これは元のリテラル入力と互換性がない。 0.54
Rather, CM-BART generates a metaphor expressing perhaps growing darkness with the verb try and a dangerous darkness with the verb bite. むしろCM-BARTは、動詞で暗く成長し、動詞を噛む危険な暗黒を表すメタファーを生成する。 0.67
This is a critical point with regard to conceptual mappings. これは概念マッピングに関して重要なポイントである。 0.80
Not all pairs are available: they require semantic consistency, and while generating from any two pairs may yield insightful, interesting, and perhaps inspiring new metaphoric expressions, generating metaphoric paraphrases requires additional knowledge of which source/target pairings are compatible. すべてのペアが利用可能ではない: セマンティックな一貫性が必要であり、2つのペアから生成されることは洞察力があり、興味深く、おそらくは新たな比喩表現をもたらすが、比喩的なパラフレーズを生成するには、どのソース/ターゲットのペアが互換性があるかに関する追加の知識が必要である。
訳抜け防止モード: すべてのペアが利用可能ではない。 2つのペアから 生まれると 洞察に富み 興味深く インスパイアされた メタファー表現です メタファー的なパラフレーズを生み出す どのソース/ターゲットのペアリングが互換性があるか、追加の知識が必要です。
0.62
This generally supports notion of invariance and structure mapping, in which there is inherent structure within domains that needs to be consistent in order to evoke metaphoric mappings between them (Gentner, 1983; Lakoff, 1993). これは一般に不変性と構造写像の概念を支持し、それらの間の比喩写像を誘発するために整合性を必要とする領域内に固有の構造が存在する(Gentner, 1983; Lakoff, 1993)。 0.75
It must be noted that the systems proposed here have a distinct advantage in this task: we add FrameNet frames, which, while neither perfect nor designed to capture metaphoricity, provide a strong signal for which domains to generate in. ここで提案されたシステムは、このタスクにおいて明確な利点がある: FrameNetフレームを追加します。
訳抜け防止モード: ここで提案されたシステムは、このタスクにおいて明確な優位性を持っていることに注意する必要がある。 FrameNet フレームを追加します。 ドメインが.NETで生成する強力な信号を提供する。
0.69
This highlights a possible benefit to the interaction between deep, pre-trained models such as BART and available lexical resources: by combining these, we are able to leverage the strength of each to build a powerful metaphor generation system. このことは、BARTのような深層で事前訓練されたモデルと利用可能な語彙資源との相互作用の可能性を強調している。
訳抜け防止モード: このことは、BARTのような深層で事前訓練されたモデルと利用可能な語彙リソースとの相互作用の可能性を浮き彫りにする。 それぞれの力を利用して 強力な比喩生成システムを構築することができます
0.75
6 Related Work We broadly cover two areas of related work: previous computational approaches to CMT, and previous approaches to metaphor generation. 6 関連作業 我々は、CMTに対する従来の計算手法と、メタファー生成に対する以前のアプローチの2つの分野を幅広くカバーする。 0.69
Computational Approaches to CMT. CMTへの計算的アプローチ 0.85
There are a variety of approaches to identifying conceptual metaphors themselves. 概念的比喩そのものを識別するアプローチは様々である。 0.69
The CorMet system (Mason, 2004) was built to extract conceptual metaphors based on selectional preferences cormet system (mason, 2004) は選択選好に基づく概念的メタファを抽出するために構築された。 0.73
of verbs. Shaikh et al (2014a) builds ”conceptual spaces” for source domains, using rule-based extraction of relations between lexical items. 動詞です shaikh et al (2014a)は、語彙項目間の関係の規則に基づく抽出を使用して、ソースドメインの“概念空間”を構築する。 0.55
These conceptual spaces are then used to find new conceptual metaphors. これらの概念空間は、新しい概念的メタファーを見つけるために使われる。 0.65
This process is extended to build a repository of linguistic and conceptual metaphors (Shaikh et al , 2014b). このプロセスは、言語的および概念的メタファー(shaikh et al , 2014b)のリポジトリを構築するために拡張される。 0.67
Mohler et al (2014) focus on identifying appropriate source domains for metaphoric expressions, using vector-based approaches for metaphor interpretation. Mohler et al (2014) は比喩表現の適切なソースドメインを特定することに重点を置いており、比喩解釈のベクトルベースのアプローチを用いている。 0.53
The idea of using frames to represent metaphoric domains has been explored in the MetaNet project (Dodge et al , 2015). メタドメインを表現するためにフレームを使用するというアイデアは、metanetプロジェクト(dodge et al , 2015)で検討されている。 0.69
We however, restrict our work to FrameNet due to the coverage and availability of reliable automatic parsing. しかしながら、信頼性の高い自動解析のカバレッジと可用性のため、私たちはFrameNetに作業を制限しています。 0.59
Metaphor Generation. Early work in metaphor generation was based in heuristics, learning to generate relatively simple ”A is like B” representations (Abe et al , 2006; Terai and Nakagawa, 2010). メタファー生成。 メタファー生成の初期の研究はヒューリスティックスに基づいており、比較的単純な「A is like B」表現を生成することを学習した(Abe et al , 2006; Terai and Nakagawa, 2010)。 0.62
In a similar vein, Veale (2016) uses template-like structures to generate creative and metaphoric tweets. Veale (2016)も同様に、テンプレートのような構造を使って、創造的で比喩的なツイートを生成する。 0.68
Other works focus on identifying metaphoric mappings using WordNet clustering and selectional preferences (Mason, 2004; Gandy et al , 2013), syntactic relations to build proposition databases (Ovchinnikova et al , 2014), and embedding based approaches to identify poetic relationships (Gagliano et al , 2016). 他の研究は、WordNetクラスタリングと選好を用いたメタファマッピングの識別(Mason, 2004; Gandy et al , 2013)、命題データベースを構築するための構文的関係(Ovchinnikova et al , 2014)、詩的な関係を識別するための埋め込みに基づくアプローチ(Gagliano et al , 2016)に焦点を当てている。 0.80
However, the goal of these works is to generate mappings, rather than linguistic expressions that evoke them. しかし、これらの研究の目標は、それらを引き起こす言語表現ではなく、マッピングを生成することである。
訳抜け防止モード: しかし これらの作品の目標は それらを誘発する言語表現ではなく、マッピングを生成します。
0.81
Amongst deep learning approaches Yu and Wan (2019) identify literal and metaphoric words in corpora based on selectional restrictions, and using these to train sequence-to-sequence models for metaphor generation, albeit without reference to any input expression. ディープラーニングのアプローチでは、yuとwan(2019)は選択制限に基づいてコーパス内のリテラルとメタファーの単語を識別し、入力式を参照せずにメタファ生成のシーケンスツーシーケンスモデルをトレーニングする。 0.65
Stowe et al (2020) generates metaphors using masked language modeling, masking metaphoric tokens in training in order to encourage metaphoric generation. Stowe et al (2020) は、メタファ生成を促進するために、仮面言語モデリング、仮面メタファトークンを用いたメタファを生成する。 0.52
Other approaches use novel methods for collecting literal/metaphor pairs, training sequence-to-sequence models for simile generation and metaphoric paraphrasing (Chakrabarty et al , 2020, 2021). 他のアプローチでは、リテラル/メタファーペアの収集、シンジケーション生成と比喩的言い換えのためのシーケンス・ツー・シーケンスのトレーニング(Chakrabarty et al , 2020, 2021)という新しい手法を用いる。 0.55
These approaches effectively generate figurative language, but the models have no knowledge of the underlying metaphors, and thus simply generate ungrounded expressions. これらのアプローチは比喩的言語を効果的に生成するが、モデルには下層のメタファーに関する知識がなく、したがって単純に非基底表現を生成する。
訳抜け防止モード: これらのアプローチは比喩的言語を効果的に生成する。 モデルには メタファーの知識が ないので 単に 根拠のない表現を 生成するだけです
0.65
This leads to outputs which are possibly metaphoric, but contain no connection to the input, eschewing the critical connections that make novel metaphors powerful. これは、おそらくメタファー的だが入力とのつながりを含まない出力につながり、新しいメタファーを強力にする重要な接続を省く。 0.53
We instead propose methods for generating metaphoric para- 代わりに、メタファー的なパラ-を生成する方法を提案する。 0.44
英語(論文から抽出)日本語訳スコア
phrases grounded in CMT. 7 Conclusions and Future Work CMTで接頭辞。 7 結論と今後の課題 0.70
In summary, we have shown two methods for incorporating knowledge of conceptual metaphor theory in metaphor generation. 要約すると、メタファー生成に概念的メタファー理論の知識を取り入れる2つの方法を示した。 0.67
We trained FrameNet frame embeddings to represent conceptual domains, and applied shifts between them to generate metaphors in an unsupervised fashion. 我々は、概念ドメインを表現するためにFrameNetフレーム埋め込みを訓練し、それら間のシフトを適用して、教師なしの方法でメタファを生成する。 0.53
Leveraging FrameNet further, we build a dataset of semisupervised pairs that evoke conceptual metaphors, which can be used along with BART for controlled metaphor generation. FrameNetをさらに活用して、概念的メタファを誘発する半教師付きペアのデータセットを構築し、BARTと共に制御されたメタファ生成に使用できる。 0.56
This model achieves stateof-the-art performance in metaphor generation by both automatic and human evaluations. このモデルは自動評価と人間評価の両方によってメタファ生成における最先端のパフォーマンスを達成する。 0.55
Future work can expand these models to go beyond verbs, incorporating nominal and other types of metaphors. 将来の研究はこれらのモデルを動詞を超えて拡張し、名目やその他のメタファーを取り入れることができる。 0.61
The next necessary step is to go beyond lexicalized metaphors: good, consistent conceptual metaphors often span long stretches of text, and we need to design models that can learn and generate metaphors over larger texts. 良質で一貫性のある概念的メタファは、しばしば長い範囲のテキストにまたがる。我々は、より大きなテキスト上でメタファを学び、生成できるモデルを設計する必要がある。 0.51
Ethical Considerations Although we use language models trained on data collected from the Web, which have been shown to have issues with bias and abusive language (Sheng et al , 2019; Wallace et al , 2019), the inductive bias of our models should limit inadvertent negative impacts. 倫理的考察 私たちはWebから収集されたデータに基づいてトレーニングされた言語モデルを使用しますが、バイアスや虐待的な言語(Sheng et al , 2019; Wallace et al , 2019)に問題があることが示されています。 0.64
Unlike model variants such as GPT, BART is a conditional language model, which provides more control of the generated output. GPTのようなモデル変種とは異なり、BARTは条件付き言語モデルであり、生成された出力をより制御できる。 0.76
It should also be noted that our CM-BART model is fine-tuned on the poetry corpus which is devoid of harmful and toxic text especially targeted at marginalized communities CM-BARTモデルは、特に地域社会をターゲットとした有害で有害なテキストを欠いた詩のコーパスを微調整している点にも注意が必要だ。 0.60
Advances in generative AI inherently come with concerns about models’ ability to deceive, persuade, and misinform. 生成AIの進歩は、本質的にモデルが騙し、説得し、誤形する能力に懸念を抱いている。 0.56
Metaphorical language has been shown to express and elicit stronger emotion than literal language (Citron and Goldberg, 2014; Mohammad et al , 2016) and to provoke emotional responses in the context of political discourse covered by mainstream newspapers (Figar, 2014). メタフォリカル言語はリテラル言語(Citron and Goldberg, 2014; Mohammad et al , 2016)よりも強い感情を表現し、引き起こし、主流の新聞(Figar, 2014)で取り上げられる政治的言論の文脈で感情的な反応を引き起こすことが示されている。 0.80
We understand there may be concerns about building generative models for metaphors aimed at persuasion. 説得を目的としたメタファの生成モデルの構築に懸念があることは理解しています。 0.55
Social scientists distinguish persuasion from manipulation based on two aspects: dissimulation and constraint (Nettel and Roque, 2012). 社会科学者は、ディシミュレーションと制約(Nettel and Roque, 2012)という2つの側面に基づく操作から説得を区別する。 0.59
Dissimulation involves concealing intention, which requires hiding information, whereas constraint involves re- シミュレーションは意図を隠蔽し、情報を隠す必要があるが、制約は再-を含む。 0.47
moving options from the audience and forcing them to accept the conclusion. オーディエンスから選択肢を移動させ 結論を受け入れるよう強制します 0.69
Our work on metaphor generation does not aim to hide information about a topic or present it as the only choice, but aims to provide the same sentence using more expressive language. メタファー生成に関する我々の研究は、話題に関する情報を隠したり、唯一の選択肢として提示することではなく、より表現力のある言語を用いて同じ文を提供することを目的としている。
訳抜け防止モード: メタファー生成に関する我々の研究は目的ではない トピックに関する情報を隠したり 唯一の選択肢として提示したりします 表現力のある言語を使って 同じ文を提供することです
0.68
References Keiga Abe, Sakamoto Kayo, and Masanori Nakagawa. 阿部慶賀、加代坂本、中川正則を参照。 0.40
2006. A computational model of the metaphor generation process. 2006. 比喩生成過程の計算モデル 0.65
In Proceedings of the 28th Annual Meeting of the Cognitive Science Society, pages 937– 942, Vancouver, Canada. 第28回認知科学会年次大会紀要には、カナダのバンクーバーの937-942頁がある。 0.62
Psychology Press. Waad Alhoshan, Riza Batista-Navarro, and Liping Zhao. 心理学記者。 Waad Alhoshan、Riza Batista-Navarro、Liping Zhao。 0.72
2019. Semantic frame embeddings for detecting relations between software requirements. 2019. ソフトウェア要件間の関係を検出するためのセマンティックフレーム埋め込み。 0.79
In Proceedings of the 13th International Conference on Computational Semantics - Student Papers, pages 44–51, Gothenburg, Sweden. 13th international conference on computational semantics - student papers, pages 44-51, gothenburg, sweden (スウェーデン) 0.73
Association for Computational Linguistics. Collin F. Baker, Charles J. Fillmore, and John B. Lowe. 計算言語学会会員。 コリン・ベイカー、チャールズ・j・フィルモア、ジョン・b・ロー。 0.54
1998. The Berkeley FrameNet project. 1998. バークレー・フレームネット プロジェクトです 0.76
In 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics, Volume 1, pages 86–90, Montreal, Quebec, Canada. 第36回計算言語学会年次総会と第17回計算言語学国際会議,第1巻86-90ページ,ケベック州モントリオール,カナダ 0.62
Association for Computational Linguistics. Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. 計算言語学会会員。 Piotr Bojanowski、Edouard Grave、Armand Joulin、Tomas Mikolov。 0.58
2017. Enriching word vectors with subword information. 2017. 単語ベクトルをサブワード情報で強化する。 0.75
Transactions of the Association for Computational Linguistics, 5:135–146. 計算言語学会(Association for Computational Linguistics) 5:135–146。 0.64
Antoine Bosselut, Hannah Rashkin, Maarten Sap, Chaitanya Malaviya, Asli Celikyilmaz, and Yejin Choi. Antoine Bosselut, Hannah Rashkin, Maarten Sap, Chaitanya Malaviya, Asli Celikyilmaz, Yejin Choi 0.71
2019. COMET: Commonsense transformers for automatic knowledge graph construction. 2019. comet: 知識グラフの自動生成のためのcommonsenseトランスフォーマー。 0.74
In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4762–4779, Florence, Italy. 57th Annual Meeting of the Association for Computational Linguistics, page 4762–4779, イタリア・フィレンツェ。 0.71
Association for Computational Linguistics. Tuhin Chakrabarty, Smaranda Muresan, and Nanyun Peng. 計算言語学会会員。 Tuhin Chakrabarty, Smaranda Muresan, Nanyun Peng 0.54
2020. Generating similes effortlessly like a pro: A style transfer approach for simile generation. 2020. プロのように無力にsimileを生成する: simile生成のためのスタイル転送アプローチ。 0.76
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 6455–6469, Online. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), page 6455–6469, Online 0.81
Association for Computational Linguistics. Tuhin Chakrabarty, Xurui Zhang, Smaranda Muresan, and Nanyun Peng. 計算言語学会会員。 Tuhin Chakrabarty, Xurui Zhang, Smaranda Muresan, Nanyun Peng 0.56
2021. MERMAID: Metaphor generation with symbolism and discriminative decoding. 2021. MERMAID: シンボルと識別復号を伴うメタファー生成。 0.74
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4250–4261, Online. the association for computational linguistics: human language technologies, pages 4250–4261, online (英語) 0.45
Association for Computational Linguistics. 計算言語学会会員。 0.52
英語(論文から抽出)日本語訳スコア
Francesca MM Citron and Adele E Goldberg. フランチェスカ mm シトロンと アデル・e・ゴールドバーグ 0.56
2014. Metaphorical sentences are more emotionally engaging than their literal counterparts. 2014. メタフォリカルな文は、リテラルな文よりも感情的に魅力的である。 0.65
Journal of cognitive neuroscience, 26(11):2585–2595. journal of cognitive neuroscience、26(11)2585-2595。 0.82
D. Alan Cruse and William Croft. d・アラン・クルースと ウィリアム・クロフト 0.58
2004. Cognitive Linguistics. 2004. 認知言語学。 0.77
Cambridge Textbooks in Linguistics. Cambridge Textbooks in Linguistics(英語) 0.77
Cambridge University Press. ケンブリッジ大学出版局。 0.68
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova 0.76
2019. BERT: Pre-training of deep bidirectional transformers for language underIn Proceedings of the 2019 Conference standing. 2019. BERT: 2019年開催のProceedings of the 2019 Conferenceにおいて、言語の下での双方向トランスフォーマーの事前トレーニング。 0.71
of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171–4186, Minneapolis, Minnesota. The North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), page 4171–4186, Minneapolis, Minnesota. 0.85
Association for Computational Linguistics. Erik-Lˆan Do Dinh, Hannah Wieland, and Iryna Gurevych. 計算言語学会会員。 エリック=ラン・ド・ディン、ハンナ・ウィーランド、イリナ・グレヴィチ。 0.51
2018. Weeding out conventionalized metaphors: A corpus of novel metaphor annotaIn Proceedings of the 2018 Conference on tions. 2018. 従来型のメタファを除外する: 2018 Conference on tionsの、新しいメタファのコーパスAnnotaIn Proceedings 0.68
Empirical Methods in Natural Language Processing, pages 1412–1424, Brussels, Belgium. Empirical Methods in Natural Language Processing, page 1412–1424, Brussels, Belgium. 0.96
Association for Computational Linguistics. Ellen Dodge, Jisup Hong, and Elise Stickles. 計算言語学会会員。 Ellen Dodge, Jisup Hong, Elise Stickles 0.57
2015. MetaNet: Deep semantic automatic metaphor analIn Proceedings of the Third Workshop on ysis. 2015. metanet: deep semantic automatic metaphor analin proceedings of the third workshop on ysis (英語) 0.82
Metaphor in NLP, pages 40–49, Denver, Colorado. メタファー (NLP) - コロラド州デンバーの40-49頁。 0.57
Association for Computational Linguistics. Angela Fan, Mike Lewis, and Yann Dauphin. 計算言語学会会員。 アンジェラ・ファン、マイク・ルイス、ヤン・ドーフィン。 0.55
2018. HiIn Proceedings erarchical neural story generation. 2018. HiIn Proceedings 階層型ニューラルストーリー生成。 0.81
of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 889–898, Melbourne, Australia. 第56回計算言語学会年次大会(Volume 1: Long Papers, 889-898, Melbourne, Australia)に参加して 0.71
Association for Computational Linguistics. Vladimir Figar. 計算言語学会会員。 ウラジーミル・フィガー。 0.49
2014. Emotional appeal of conceptual metaphors of conflict in the political discourse of daily newspapers. 2014. 日刊新聞の政治談話における対立の概念的比喩の感情的魅力 0.77
Facta Universitatis, Linguistics and Literature, 12(1):43–61. Facta Universitatis, Linguistics and Literature, 12(1):43-61。 0.92
Charles Fillmore. チャールズ・フィルモア。 0.70
1982. Frame Semantics. 1982. フレームセマンティクス。 0.70
Linguistics in the Morning Calm, 1:111–138. 言語 The Morning Calm, 1:111–138。 0.72
W. N. Francis and H. Kucera. W・N・フランシスとH・クセラ。 0.56
1979. Brown corpus manual. 1979. ブラウンコーパスマニュアル。 0.75
Technical report, Department of Linguistics, Brown University, Providence, Rhode Island, US. 米国ロードアイランド州プロビデンスにあるブラウン大学言語学部技術報告。 0.51
Andrea Gagliano, Emily Paul, Kyle Booten, and Marti A. Hearst. アンドレア・ガリアーノ、エミリー・ポール、カイル・ブースン、マルティ・A・ハースト。 0.48
2016. Intersecting word vectors to take figurative language to new heights. 2016. フィギュラティブ言語を新しい高さに持ち込むために単語ベクトルを交差させる。 0.71
In Proceedings of the Fifth Workshop on Computational Linguistics for Literature, pages 20–31, San Diego, California, USA. The Proceedings of the Fifth Workshop on Computational Linguistics for Literature, pages 20–31, San Diego, California, USA 0.84
Association for Computational Linguistics. Lisa Gandy, Nadji Allan, Mark Atallah, Ophir Frieder, Newton Howard, Sergey Kanareykin, Moshe Koppel, Mark Last, Yair Neuman, and Shlomo Argamon. 計算言語学会会員。 Lisa Gandy, Nadji Allan, Mark Atallah, Ophir Frieder, Newton Howard, Sergey Kanareykin, Moshe Koppel, Mark Last, Yair Neuman, Shlomo Argamon 0.63
2013. Automatic identification of concepIn Protual metaphors with limited knowledge. 2013. 限られた知識を持つ韻律メタファーの自動識別 0.76
ceedings of the 27th AAAI Conference on Artificial 第27回 AAAI Conference on Artificial に参加して 0.74
Intelligence, pages 328–334, Bellevue, Washington. インテリジェンス、328-334頁、ワシントン州ベルビュー。 0.67
AAAI Press. Dedre Gentner. AAAIプレス Dedre Gentner 0.55
1983. Structure-Mapping: A Theoretical Framework for Analogy. 1983. Structure-Mapping: アナロジーの理論フレームワーク。 0.81
Cognitive Science, 7:1– 5. 認知科学、7:1-5。 0.63
Sam Havens and Aneta Stal. Sam HavensとAneta Stal。 0.73
2019. Use bert to fill in 2019. bert (複数形 berts) 0.57
the blanks. Arthur M Jacobs. 空白だ アーサー・m・ジェイコブス 0.42
2018. The Gutenberg English poetry corpus: exemplary quantitative narrative analyses. 2018. グーテンベルク英語詩集:the gutenberg english poetry corpus: suchemplary quantitative narrative analysis (英語) 0.72
Frontiers in Digital Humanities, 5:5. The Frontiers in Digital Humanities, 5:5。 0.82
Zolt´an K¨ovecses. 2020. 通称K。 2020. 0.59
Extended Conceptual Metaphor Theory. 拡張概念 メタファー理論。 0.68
Cambridge University Press. ケンブリッジ大学出版局。 0.68
George Lakoff. 1993. ジョージ・ラコフ。 1993. 0.76
The Contemporary Theory of In Andrew Ortony, editor, Metaphor Metaphor. The Contemporary Theory of In Andrew Ortony, editor, Metaphor Metaphor 0.74
and Thought, pages 202–251. 詳細は202-251頁。 0.34
Cambridge University Press. ケンブリッジ大学出版局。 0.68
George Lakoff and Mark Johnson. ジョージ・ラコフとマーク・ジョンソン 0.72
1980. Metaphors We Live By. 1980. メタファーが生活している。 0.64
University of Chicago Press, Chicago and London. シカゴ大学、シカゴ大学、ロンドン大学。 0.67
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, Luke Zettlemoyer。 0.78
2020. BART: Denoising sequence-to-sequence pretraining for natural language generation, translation, and comprehension. 2020. BART: 自然言語の生成、翻訳、理解のためのシーケンス・ツー・シーケンスの事前学習。 0.71
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 7871–7880, Online. 58th Annual Meeting of the Association for Computational Linguistics, page 7871-7880, Online 0.65
Association for Computational Linguistics. Rui Mao, Chenghua Lin, and Frank Guerin. 計算言語学会会員。 Rui Mao、Chenghua Lin、Frank Guerin。 0.57
2018. Word embedding and WordNet based metaphor identification and interpretation. 2018. 単語埋め込みとWordNetに基づくメタファの識別と解釈。 0.81
In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pages 1222–1231, Melbourne, Australia. 第56回計算言語学会年次総会において、オーストラリアのメルボルンで1222-1231頁が開催された。 0.63
Association for Computational Linguistics. James H Martin. 計算言語学会会員。 ジェームズ・h・マーティン 0.63
2006. A corpus-based analysis of context effects on metaphor comprehension. 2006. メタファー理解における文脈効果のコーパスに基づく分析 0.80
Technical report. Zachary J. Mason. 技術報告。 ザカリー・j・メイソン 0.56
2004. CorMet: A computational, corpus-based conventional metaphor extraction system. 2004. CorMet: コーパスベースの従来のメタファ抽出システム。 0.71
Computational Linguistics, 30(1):23–44. 計算言語学 30(1):23–44。 0.74
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Tomas Mikolov、Kai Chen、Greg Corrado、Jeffrey Dean。 0.69
2013. Efficient estimation of word representations in vector space. 2013. ベクトル空間における単語表現の効率的推定 0.84
CoRR, abs/1301.3781. CoRR, abs/1301.3781。 0.50
Saif Mohammad, Ekaterina Shutova, and Peter Turney. Saif Mohammad、Ekaterina Shutova、Peter Turney。 0.71
2016. Metaphor as a medium for emotion: An In Proceedings of the Fifth Joint empirical study. 2016. 感情の媒体としてのメタファー:第5合同実験研究会の議事録。 0.75
Conference on Lexical and Computational Semantics, pages 23–33, Berlin, Germany. 英語) conference on lexical and computational semantics, pages 23–33, berlin, germany 0.83
Association for Computational Linguistics. Michael Mohler, Bryan Rink, David Bracewell, and Marc Tomlinson. 計算言語学会会員。 Michael Mohler、Bryan Rink、David Bracewell、Marc Tomlinson。 0.62
2014. A novel distributional approach to multilingual conceptual metaphor recognition. 2014. 多言語概念的メタファー認識への新しい分布的アプローチ 0.81
In Proceedings of COLING 2014, the 25th コリング2014の議事録 第25回 0.59
英語(論文から抽出)日本語訳スコア
International Conference on Computational Linguistics: Technical Papers, pages 1752–1763, Dublin, Ireland. International Conference on Computational Linguistics: Technical Papers, page 1752-1763, Dublin, Ireland 0.85
Dublin City University and Association for Computational Linguistics. ダブリン市立大学・計算言語学会会員。 0.50
Ana Laura Nettel and Georges Roque. Ana Laura NettelとGeorges Roque。 0.79
2012. Persuasive argumentation versus manipulation. 2012. 説得的議論と操作。 0.73
Argumentation, 26(1):55–69. 26(1):55-69頁。 0.73
Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and fairseq: A fast, extensible Michael Auli. Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, fairseq: A fast, extensible Michael Auli 0.77
2019. In Proceedings of toolkit for sequence modeling. 2019. シーケンシャルモデリングのためのツールキットの手順。 0.77
the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pages 48–53, Minneapolis, Minnesota. The 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), page 48-53, Minneapolis (ミネソタ州ミネアポリス) 0.82
Association for Computational Linguistics. Ekatarina Ovchinnikova, Vladimir Zaytsev, Suzanne Wertheim, Generating conceptual metaphors from proposition stores. 計算言語学会会員。 Ekatarina Ovchinnikova、Vladimir Zaytsev、Suzanne Wertheim、命題店から概念的なメタファーを生成する。 0.61
cs.CL/1409.7619. cs.CL/1409.7619 0.41
and Ross Israel. そしてロス・イスラエル 0.61
2014. Jeffrey Pennington, Richard Socher, and Christopher Manning. 2014. ジェフリー・ペニントン、リチャード・ソッチャー、クリストファー・マニング。 0.74
2014. GloVe: Global vectors for word representation. 2014. GloVe: ワード表現のためのグローバルベクトル。 0.82
In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 1532–1543, Doha, Qatar. 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) において、1532–1543頁、Doha, Qatar。 0.77
Association for Computational Linguistics. Michael Reddy. 計算言語学会会員。 マイケル・レディ。 0.57
1979. The Conduit Metaphor : A case of frame conflict in our language about language. 1979. Conduit Metaphor : 私たちの言語における言語に関するフレームコンフリクトの1例 0.80
In Andrew Ortony, editor, Metaphor and Thought, pages 284–324. Andrew Ortony, editor, Metaphor and Thought, page 284–324. 0.87
Cambridge University Press, Cambridge. ケンブリッジ大学出版局、ケンブリッジ大学。 0.65
Nils Reimers and Iryna Gurevych. Nils ReimersとIryna Gurevych。 0.81
2019. SentenceBERT: Sentence embeddings using Siamese BERTnetworks. 2019. SentenceBERT: Siamese BERTnetworksを使用した文の埋め込み。 0.78
In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3982–3992, Hong Kong, China. 第9回国際自然言語処理会議(EMNLP-IJCNLP)と第9回国際自然言語処理会議(EMNLP-IJCNLP)において、3982-3992頁、香港、中国。 0.74
Association for Computational Linguistics. Benjamin Schiller, Johannes Daxenberger, and Iryna Gurevych. 計算言語学会会員。 Benjamin Schiller、Johannes Daxenberger、Iryna Gurevych。 0.62
2020. Aspect-controlled neural argument generation. 2020. アスペクト制御ニューラル引数生成。 0.76
arXiv preprint arXiv:2005.00084. arXiv preprint arXiv:2005.00084 0.71
Samira Shaikh, Tomek Strzalkowski, Kit Cho, Ting Liu, George Aaron Broadwell, Laurie Feldman, Sarah Taylor, Boris Yamrom, Ching-Sheng Lin, Ning Sa, Ignacio Cases, Yuliya Peshkova, and Kyle Elliot. Samira Shaikh, Tomek Strzalkowski, Kit Cho, Ting Liu, George Aaron Broadwell, Laurie Feldman, Sarah Taylor, Boris Yamrom, Ching-Sheng Lin, Ning Sa, Ignacio Cases, Yuliya Peshkova, Kyle Elliot 0.82
2014a. Discovering conceptual metaphors usIn Proceedings of the ing source domain spaces. 2014年。 ing ソースドメイン空間のプロシージャで概念的メタファーを発見する。 0.74
4th Workshop on Cognitive Aspects of the Lexicon (CogALex), pages 210–220, Dublin, Ireland. 4th Workshop on Cognitive aspects of the Lexicon (CogALex) アイルランド、ダブリンの210-220頁。 0.78
Association for Computational Linguistics and Dublin City University. ダブリン市立大学と計算言語学。 0.46
Samira Shaikh, Tomek Strzalkowski, Ting Liu, George Aaron Broadwell, Boris Yamrom, Sarah Taylor, Laurie Feldman, Kit Cho, Umit Boz, Ignacio Cases, Yuliya Peshkova, and Ching-Sheng Lin. Samira Shaikh, Tomek Strzalkowski, Ting Liu, George Aaron Broadwell, Boris Yamrom, Sarah Taylor, Laurie Feldman, Kit Cho, Umit Boz, Ignacio Cases, Yuliya Peshkova, Ching-Sheng Lin 0.82
2014b. A multi-cultural repository of automatically 2014年。 自動的な多文化レポジトリ 0.72
discovered linguistic and conceptual metaphors. 言語と概念の比喩を発見しました 0.56
In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC’14), pages 2495–2500, Reykjavik, Iceland. 第9回言語資源と評価に関する国際会議(LREC'14)の開催にあたっては、アイスランドのレイキャビキ、2495-2500頁。 0.66
European Language Resources Association (ELRA). 欧州言語資源協会 (ELRA) の略。 0.77
Emily Sheng, Kai-Wei Chang, Premkumar Natarajan, and Nanyun Peng. Emily Sheng, Kai-Wei Chang, Premkumar Natarajan, Nanyun Peng 0.73
2019. The woman worked as a babysitter: On biases in language generation. 2019. 女性はベビーシッターとして働いていました。 0.64
In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3407– 3412, Hong Kong, China. 第9回自然言語処理国際共同会議(emnlp-ijcnlp)と2019年の自然言語処理に関する実証的手法に関する会議の議事録において、香港、香港、3407-3412ページが挙げられている。
訳抜け防止モード: 自然言語処理における経験的手法に関する2019年会議のまとめ 第9回国際自然言語処理国際会議(EMNLP - IJCNLP)に参加して 3407年 - 3412年、香港、中国。
0.80
Association for Computational Linguistics. Jennifer Sikos and Sebastian Pad´o. 計算言語学会会員。 ジェニファー・シコスとセバスチャン・パドオ。 0.57
2018. Using embeddings to compare FrameNet frames across lanIn Proceedings of the First Workshop on guages. 2018. 埋め込みを使用して、lanIn Proceedings of the First Workshop on guages(リンク)でFrameNetフレームを比較する。 0.75
Linguistic Resources for Natural Language Processing, pages 91–101, Santa Fe, New Mexico, USA. 自然言語処理のための言語資源 91-101ページ, Santa Fe, New Mexico, USA 0.86
Association for Computational Linguistics. Robyn Speer, Joshua Chin, and Catherine Havasi. 計算言語学会会員。 Robyn Speer、Joshua Chin、Catherine Havasi。 0.57
2017. Conceptnet 5.5: An open multilingual graph of general knowledge. 2017. Conceptnet 5.5: 一般知識のオープン多言語グラフ。 0.86
In In Thirty-First AAAI Conference on Artificial Intelligence., pages 4444–4451, San Francisco, California. In Thirth-First AAAI Conference on Artificial Intelligence., page 4444–4451, San Francisco, California 0.82
Gerard J. Steen, Aletta G. Dorst, J. Berenike Herrmann, Anna Kaal, Tina Krennmayr, and Trijntje Pasma. Gerard J. Steen, Aletta G. Dorst, J. Berenike Herrmann, Anna Kaal, Tina Krennmayr, Trijntje Pasma 0.85
2010. A Method for Linguistic Metaphor Identification: From MIP to MIPVU. 2010. 言語的メタファーの同定法:mipからmipvuへ 0.65
John Benjamins. ジョン・ベンジャミン。 0.67
Kevin Stowe, Leonardo Ribeiro, and Iryna Gurevych. ケヴィン・ストウ、レオナルド・リベイロ、イリナ・グレヴィッチ。 0.45
arXiv 2020. arXiv 2020. 0.85
Metaphoric paraphrase generation. メタファー的パラフレーズ生成。 0.64
preprint arXiv:2002.12854. arXiv:2002.12854 0.62
Karen Sullivan. 2013. カレン・サリヴァン 2013. 0.65
Frames and Constructions in Metaphoric Language. フレームと構造 メタファー言語。 0.57
John Benjamins. ジョン・ベンジャミン。 0.67
Swabha Swayamdipta, Sam Thomson, Chris Dyer, and Noah A. Smith. Swabha Swayamdipta、Sam Thomson、Chris Dyer、Noah A. Smith。 0.79
2017. Frame-Semantic Parsing with Softmax-Margin Segmental RNNs and a Syntactic Scaffold. 2017. Softmax-Margin Segmental RNNとSyntactic Scaffoldを用いたフレーム意味解析 0.82
arXiv preprint arXiv:1706.09528. arXiv preprint arXiv:1706.09528 0.71
Asuka Terai and Masanori Nakagawa. 寺井明日香と中川正則。 0.42
2010. A computational system of metaphor generation with evaluation mechanism. 2010. 評価機構を用いたメタファー生成の計算システム 0.77
In International Conference on Artificial Neural Networks, pages 142–147, Thessaloniki, Greece. International Conference on Artificial Neural Networks, page 142–147, Thessaloniki, Greece. 0.89
Springer. Tony Veale. Springer トニー・ヴェール 0.58
2016. Round up the usual suspects: Knowledge-based metaphor generation. 2016. 一般的な容疑者: 知識に基づくメタファ生成。 0.78
In Proceedings of the Fourth Workshop on Metaphor in NLP, pages 34–41, San Diego, California. In Proceedings of the Fourth Workshop on Metaphor in NLP, page 34-41, San Diego, California. 0.92
Association for Computational Linguistics. Eric Wallace, Shi Feng, Nikhil Kandpal, Matt Gardner, and Sameer Singh. 計算言語学会会員。 Eric Wallace, Shi Feng, Nikhil Kandpal, Matt Gardner, Sameer Singh 0.61
2019. Universal adversarial triggers for attacking and analyzing NLP. 2019. NLPの攻撃と解析のための普遍的敵のトリガー。 0.74
In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 2153–2162, Hong Kong, China. 第9回自然言語処理国際共同会議(emnlp-ijcnlp)第2153-2162ページ、香港、中国。
訳抜け防止モード: 自然言語処理における経験的手法に関する2019年会議のまとめ 第9回国際自然言語処理国際会議(EMNLP - IJCNLP)に参加して 2153-2162頁、香港、中国。
0.79
Association for Computational Linguistics. 計算言語学会会員。 0.52
英語(論文から抽出)日本語訳スコア
Zhiwei Yu and Xiaojun Wan. Zhiwei YuとXiaojun Wan。 0.77
2019. How to avoid sentences spelling boring? 2019. つまらない文章を避けるには? 0.71
Towards a neural approach In Proceedto unsupervised metaphor generation. 教師なしメタファー生成へのニューラルアプローチに向けて 0.56
ings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 861–871, Minneapolis, Minnesota. ings of the 2019 conference of the north american chapter of the association for computational linguistics: human language technologies, pages 861–871, minneapolis, minnesota (英語) 0.85
Association for Computational Linguistics. Figure 3: Frame embedding evaluation metrics as data is added. 計算言語学会会員。 図3: フレーム埋め込み 評価メトリクスをデータとして追加します。 0.64
A Appendix A A Appendix A 0.85
Results for each frame embedding method using the distance metrics defined in Section 3.1 are shown in Table 6. 第3.1節で定義された距離測定値を用いた各フレーム埋め込み方式の結果を表6に示す。 0.71
Figure 3 tracks these evaluation metrics as more data is added to each algorithm. 図3は、これらの評価指標を、各アルゴリズムにより多くのデータを追加して追跡します。 0.57
The lexical evaluation relatively stable, peaking in most cases between .1 and .2. 語彙評価は比較的安定しており、ほとんどの場合.1から.2の間でピークに達する。 0.48
The word2vec embeddings maintain their upward progression even at maximal data: theoretically additional data could improve these embeddings further. ワード2vec埋め込みは最大データでも上向きの進行を保ち、理論的にはこれらの埋め込みをさらに改善することができる。 0.59
The structural evaluation shows something very different: while word2vec and FastText embeddings improve as data is added, showing some effects of model size, the Glove embeddings trend sharply negative at first before proceeding beginning to improve. word2vecとfasttextの埋め込みは、データが追加されるにつれて改善され、モデルサイズの影響も見られるが、グラブの埋め込みは、改善を始める前に最初は著しくネガティブな傾向が見られた。 0.64
B Appendix B B‐appendix 0.73
Agreement rates were measured using Krippendorff’s α. 合意率はkrippendorffのαを用いて測定された。 0.67
For metaphoricity, the mean score was .505, indicating moderate agreement. 比喩的には平均スコアは.505で、適度な一致を示している。 0.57
However, given the difficulty of this task, we believe this to be relatively stronger: see Table 7 for comparison to other work evaluating metaphor generation. しかし、この作業の難しさを考えると、これは比較的強力であると信じている。
訳抜け防止モード: しかし この課題の難しさを考えると これは比較的強くなりますが :表7を参照し、メタファー生成を評価する他の作業と比較する。
0.76
For source domain annotation, annotators varied in the degree to which source domains were evoked. ソースドメインアノテーションについては、アノテーションはソースドメインが呼び出された度合いによって異なる。 0.63
Initial agreement was relatively poor (.249): we performed a post-processing step, normalizing their results to a consistent mean. 最初の合意は比較的貧弱(.249): 処理後のステップを実行し、結果を一貫した平均に正規化しました。 0.64
This yields an agreement score of .387: which we deemed competitive for the difficulty of the task. これにより合意スコアは.387となり、作業の難しさに対して競争力があると考えました。
訳抜け防止モード: これにより合意スコアは .387 となる。 課題の難しさに 競争力があると考えました
0.71
As we have no direct comparison for evaluation, further work is required 評価を直接比較することができないため、さらなる作業が必要である 0.77
英語(論文から抽出)日本語訳スコア
lex sim Dimensions 50 word2vec .203 fasttext .113 .179 レックス・シム 50 word2vec .203 fasttext .113 .179 0.54
glove 100 .208 .120 .191 手袋 100 .208 .120 .191 0.67
300 .205 .117 .212 300 .205 .117 .212 0.74
str sim 100 .076 .103 -.136 スト・シム 100 .076 .103 -.136 0.52
300 .104 .095 -.108 300 .104 .095 -.108 0.74
50 .157 .077 .037 50 .157 .077 .037 0.74
mean 100 .144 .111 .028 平均100 .144 .111 .028 0.67
300 .154 .106 .052 300 .154 .106 .052 0.74
50 .111 .042 -.106 50 .111 .042 -.106 0.74
Table 6 6. Decoding Strategy & Hyper Parameters: For decoding we generate metaphors from our models using a top-k random sampling scheme (Fan et al , 2018). 表6 6. デコーディング戦略とハイパーパラメータ: デコーディングでは、トップkランダムサンプリングスキーム(Fan et al , 2018)を使用して、モデルからメタファを生成します。
訳抜け防止モード: 表6 6. デコード戦略とハイパーパラメータ : モデルからメタファーを生成するデコードのために トップ-kランダムサンプリングスキームを使用する(Fan et al, 2018)。
0.80
At each timestep, the model generates the probability of each word in the vocabulary being the likely next word. それぞれの時間ステップにおいて、モデルは次の単語である語彙の各単語の確率を生成する。 0.77
We randomly sample from the k = 5 most likely candidates from this distribution. この分布から k = 5 の最も可能性が高い候補をランダムにサンプリングする。 0.77
Paper Do Dinh et al (2018) Yu and Wan (2019) 紙 Do Dinh et al (2018) Yu and Wan (2019) 0.82
Chakrabarty et al (2020) Chakrabarty et al (2020) 0.85
Stowe et al (2020) Stowe (複数形 Stowes) 0.46
Chakrabarty et al (2021) Chakrabarty et al (2021年) 0.91
This work 15,180 MTurk MTurk MTurk MTurk MTurk Experts この作品 15180 MTurk MTurk MTurk MTurk 専門家 0.69
80 900 513 900 450 80 900 513 900 450 0.85
n Method Agreement .16-.38 α n メソッド契約 .16-.38 α 0.76
- - .36-.49 α - - .36-.49 α 0.76
.505 α Table 7: Comparison of agreement rates for various metaphor evaluation tasks. .505 α 表7:様々なメタファー評価課題における合意率の比較 0.85
Note that Do Dinh et al (2018) developed a real-valued scoring layer over an existing corpus rather than evaluating generated outputs. do dinh et al (2018) は生成した出力を評価するのではなく、既存のコーパスの上に実数値スコア層を開発した。 0.62
“-” indicates agreement is not reported. は合意が報告されていないことを示す。 0.50
to refine this type of evaluation process. この種の評価プロセスを洗練させます 0.78
C Appendix C For retrieving commonsense symbolism of the sentences, we use the pre-trained COMET model 9 and retrieve top 5 candidates for each input. C Appendix C 文のコモンセンスのシンボルを検索するために、事前訓練されたCOMETモデル9を使用し、各入力の上位5候補を検索する。 0.62
1. No of Parameters: We use the BART large checkpoint (400M parameters) and use the FAIRSEQ implementation (Ott et al , 2019) 10. 1. No of Parameters: BARTの大きなチェックポイント(400Mパラメータ)を使用し、FAIRSEQ実装(Ott et al , 2019)10を使用します。 0.82
2. No of Epochs: We fine-tune pre-trained BART for 25 epochs for CM-BART model and save the best model based on validation perplexity. 2. No of Epochs: CM-BARTモデルのための25のエポックに対して,事前学習したBARTを微調整し,検証の難易度に基づいた最高のモデルを保存する。
訳抜け防止モード: 2. CM-BARTモデルにおけるEpochsの不要性について 検証の難易度に基づいた最高のモデルを保存します。
0.76
3. Training Time: Our training time is 60 min- 3. トレーニング時間:トレーニング時間は60分です。 0.80
utes for CM-BART. 4. CM-BART用。 4. 0.84
Hardware Configuration: We use 4 RTX ハードウェア構成:4つのRTXを使う 0.84
2080 GPUs. 5. 2080 GPU。 5. 0.83
Training Hyper parameters: We use the same parameters as the FAIRSEQ github repository where BART was fine-tuned for the CNN-DM summarization task with the exception of the size of each mini-batch, in terms of the number of tokens, for which we used 1024. ハイパーパラメータのトレーニング: 私たちはfairseq githubリポジトリと同じパラメータを使用しています。bartは1024を使用したトークン数の観点から、各ミニバッチのサイズを除いて、cnn-dm要約タスク用に微調整されています。 0.71
11 9https://github.com/ atcbosselut/ 11 9https://github.com/ atcbosselut/ 0.62
comet-commonsense Comet‐commonsense 0.50
10https://github.com /pytorch/fairseq/ 10https://github.com /pytorch/fairseq/ 0.34
tree/master/examples /bart tree/master/examples /bart 0.29
11https://github.com /pytorch/fairseq/ 11https://github.com /pytorch/fairseq/ 0.34
blob/master/examples /roberta/README.glue . blob/master/examples /roberta/README.glue 0.28
md md 0.85
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。