論文の概要: Can Pre-trained Language Models Interpret Similes as Smart as Human?
- arxiv url: http://arxiv.org/abs/2203.08452v1
- Date: Wed, 16 Mar 2022 07:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 13:49:29.148632
- Title: Can Pre-trained Language Models Interpret Similes as Smart as Human?
- Title(参考訳): 事前学習された言語モデルは、シミールを人間と同じくらい賢く解釈できるか?
- Authors: Qianyu He, Sijie Cheng, Zhixu Li, Rui Xie, Yanghua Xiao
- Abstract要約: 我々は,Simile Property Probing という新しいタスクを設計し,Simile の共有特性を事前学習した言語モデルで推測する。
我々の実証研究は、PLMが人間を過小評価しながら、模擬生物の共有特性を推測できることを示している。
人的パフォーマンスとのギャップを埋めるため,PLMに擬似知識を組み込むことで,知識を増強した学習目標を設計する。
- 参考スコア(独自算出の注目度): 15.077252268027548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simile interpretation is a crucial task in natural language processing.
Nowadays, pre-trained language models (PLMs) have achieved state-of-the-art
performance on many tasks. However, it remains under-explored whether PLMs can
interpret similes or not. In this paper, we investigate the ability of PLMs in
simile interpretation by designing a novel task named Simile Property Probing,
i.e., to let the PLMs infer the shared properties of similes. We construct our
simile property probing datasets from both general textual corpora and
human-designed questions, containing 1,633 examples covering seven main
categories. Our empirical study based on the constructed datasets shows that
PLMs can infer similes' shared properties while still underperforming humans.
To bridge the gap with human performance, we additionally design a
knowledge-enhanced training objective by incorporating the simile knowledge
into PLMs via knowledge embedding methods. Our method results in a gain of
8.58% in the probing task and 1.37% in the downstream task of sentiment
classification. The datasets and code are publicly available at
https://github.com/Abbey4799/PLMs-Interpret-Simile.
- Abstract(参考訳): シミール解釈は自然言語処理において重要なタスクである。
今日では、PLM(pre-trained language model)は多くのタスクで最先端のパフォーマンスを実現している。
しかし、plmがシミールを解釈できるかどうかはまだ未定である。
本稿では,シミュラの共有特性を推定するために,シミュラ特性探索と呼ばれる新しいタスクを設計することで,シミュラ解釈におけるPLMの能力について検討する。
一般的なテキストコーパスと人間設計の質問からデータセットを抽出し,7つの主要なカテゴリをカバーする1,633のサンプルを含む。
構築されたデータセットに基づく実証研究は、PLMが人間を過小評価しながら、模擬体の共有特性を推測できることを示している。
人的パフォーマンスとのギャップを埋めるため,知識埋め込み手法を用いて,擬似知識をPLMに組み込むことにより,知識強化学習目標を設計する。
その結果,調査作業の8.58%,感情分類の下流作業の1.37%が得られた。
データセットとコードはhttps://github.com/Abbey4799/PLMs-Interpret-Simileで公開されている。
関連論文リスト
- Comparing zero-shot self-explanations with human rationales in multilingual text classification [5.32539007352208]
命令調整 LLM は計算や複雑な XAI 法の適用を必要としない自己説明を生成する。
入力論理の形で自己説明を評価することによって、この能力が良い説明をもたらすかどうかを解析する。
以上の結果から,自己説明はLRPよりも人間のアノテーションと密接に一致し,忠実度は同等であることがわかった。
論文 参考訳(メタデータ) (2024-10-04T10:14:12Z) - HARGPT: Are LLMs Zero-Shot Human Activity Recognizers? [9.414529772034985]
我々は,Large Language Models (LLM) が生のIMUデータを理解し,ゼロショットで人間の活動認識タスクを実行できることを示す。
我々は、GPT4上のHARGPTを、クラス間の類似性の異なる2つの公開データセットを用いてベンチマークし、従来の機械学習と最先端の深い分類モデルの両方に基づいて、様々なベースラインを比較した。
注目すべきは、LLMは生のIMUデータから人間の活動を認識し、両方のデータセットのベースラインを一貫して上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T07:34:51Z) - CoAnnotating: Uncertainty-Guided Work Allocation between Human and Large
Language Models for Data Annotation [94.59630161324013]
本稿では,非構造化テキストの大規模共同アノテーションのための新しいパラダイムであるCoAnnotatingを提案する。
我々の実証研究は、CoAnnotatingが、異なるデータセット上の結果から作業を割り当てる効果的な手段であることを示し、ランダムベースラインよりも最大21%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-10-24T08:56:49Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - How Does Pretraining Improve Discourse-Aware Translation? [41.20896077662125]
本稿では,事前学習した言語モデルが会話関係の知識を捉える能力を理解するための探索タスクを提案する。
我々は、エンコーダ-、デコーダ-、およびエンコーダ-デコーダ-ベースモデルの3つの最先端PLMを検証する。
本研究は, PLMにおける言論的知識が下流作業にどのように機能するか, どのように機能するかを理解するための指導的手法である。
論文 参考訳(メタデータ) (2023-05-31T13:36:51Z) - Can Large Language Models Transform Computational Social Science? [79.62471267510963]
大規模言語モデル(LLM)は、(トレーニングデータなしで)ゼロショットで多くの言語処理タスクを実行することができる
この研究は、計算社会科学ツールとしてLLMを使用するためのロードマップを提供する。
論文 参考訳(メタデータ) (2023-04-12T17:33:28Z) - ElitePLM: An Empirical Study on General Language Ability Evaluation of
Pretrained Language Models [78.08792285698853]
本稿では,事前学習型言語モデル(ElitePLM)の汎用言語能力評価に関する大規模実証的研究について述べる。
実験の結果,(1)訓練対象の異なるPLMは異なる能力試験に適しており,(2)下流タスクの微調整PLMはデータサイズや分布に敏感であり,(3)PLMは類似タスク間の転送性に優れていた。
論文 参考訳(メタデータ) (2022-05-03T14:18:10Z) - Awakening Latent Grounding from Pretrained Language Models for Semantic
Parsing [28.9192914266566]
事前訓練された言語モデル(PLM)は、どの概念にどのトークンを基盤とするべきかを発見できることを示す。
我々のアプローチは、訓練中にそのようなラベルに晒されていなくても、人間の専門家に理解可能な潜伏基盤を覚ますことができる。
論文 参考訳(メタデータ) (2021-09-22T06:46:29Z) - Writing Polishment with Simile: Task, Dataset and A Neural Approach [9.38000305423665]
我々は、機械が人間と同じようにシミュラでテキストを磨くことができるかどうかを調べるために、Simile (WPS) でポーランド語を書くための新しいタスクを提案する。
我々のモデルはまず、シミリの発生場所を特定し、次に位置固有のシミリを生成する。
また、コンテキスト付き500万マイルを含む大規模な中国シミールデータセットもリリースしています。
論文 参考訳(メタデータ) (2020-12-15T06:39:54Z) - oLMpics -- On what Language Model Pre-training Captures [84.60594612120173]
本研究では,比較,協調,合成などの操作を必要とする8つの推論タスクを提案する。
基本的な課題は、タスク上でのLMのパフォーマンスが、事前訓練された表現やタスクデータの微調整のプロセスに起因すべきかどうかを理解することである。
論文 参考訳(メタデータ) (2019-12-31T12:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。