論文の概要: HYU at SemEval-2022 Task 2: Effective Idiomaticity Detection with
Consideration at Different Levels of Contextualization
- arxiv url: http://arxiv.org/abs/2206.11854v1
- Date: Wed, 1 Jun 2022 10:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 08:22:48.220767
- Title: HYU at SemEval-2022 Task 2: Effective Idiomaticity Detection with
Consideration at Different Levels of Contextualization
- Title(参考訳): hyu at semeval-2022 task 2: 文脈化の異なるレベルを考慮した効果的な慣用性検出
- Authors: Youngju Joung, Taeuk Kim
- Abstract要約: 異なるレベルでコンテキスト化の様々な側面を考慮できる統一的なフレームワークを提案する。
提案手法は, 関連モデルの性能向上に有効であることを示す。
- 参考スコア(独自算出の注目度): 6.850627526999892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a unified framework that enables us to consider various aspects of
contextualization at different levels to better identify the idiomaticity of
multi-word expressions. Through extensive experiments, we demonstrate that our
approach based on the inter- and inner-sentence context of a target MWE is
effective in improving the performance of related models. We also share our
experience in detail on the task of SemEval-2022 Tasks 2 such that future work
on the same task can be benefited from this.
- Abstract(参考訳): 我々は,多語表現の慣用性をよりよく識別するために,異なるレベルの文脈化の様々な側面を考慮できる統一的なフレームワークを提案する。
広範な実験を通じて,対象mweの相互および内部関係コンテキストに基づくアプローチが,関連モデルの性能向上に有効であることを実証する。
また、semeval-2022タスク2のタスクに関する私たちの経験を詳しく共有して、同じタスクに対する今後の作業が、このメリットを享受できるようにしています。
関連論文リスト
- Layer-Wise Analysis of Self-Supervised Acoustic Word Embeddings: A Study
on Speech Emotion Recognition [54.952250732643115]
連続表現から派生した長さの固定長特徴である音響単語埋め込み(AWE)について検討し,その利点について検討した。
AWEは以前、音響的識別可能性の把握に有用であることを示した。
以上の結果から,AWEが伝達する音響的文脈が明らかになり,高い競争力を持つ音声認識精度が示された。
論文 参考訳(メタデータ) (2024-02-04T21:24:54Z) - ComOM at VLSP 2023: A Dual-Stage Framework with BERTology and Unified
Multi-Task Instruction Tuning Model for Vietnamese Comparative Opinion Mining [0.6522338519818377]
ComOM共有タスクは、ベトナム語の製品レビューから比較意見を抽出することを目的としている。
本稿では,CSIタスクのためのBERTologyモデルを微調整し,CEEタスクのためのマルチタスク命令チューニングを統一した2段階システムを提案する。
実験の結果,本手法は他の競合相手よりも優れており,公式のプライベートテストでトップスコアを獲得していることがわかった。
論文 参考訳(メタデータ) (2023-12-14T14:44:59Z) - The Role of Chain-of-Thought in Complex Vision-Language Reasoning Task [51.47803406138838]
本研究は,視覚言語タスク改善におけるChain-of-Thoughtアプローチの有効性について検討した。
我々は、人間の信号処理の仕方に触発された「記述から決定へ」戦略を提示する。
論文 参考訳(メタデータ) (2023-11-15T18:39:21Z) - Rethinking and Improving Multi-task Learning for End-to-end Speech
Translation [51.713683037303035]
異なる時間とモジュールを考慮したタスク間の整合性について検討する。
テキストエンコーダは、主にクロスモーダル変換を容易にするが、音声におけるノイズの存在は、テキストと音声表現の一貫性を妨げる。
長さと表現の差を軽減し,モーダルギャップを橋渡しする,STタスクのための改良型マルチタスク学習(IMTL)手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T08:48:46Z) - Little Giants: Exploring the Potential of Small LLMs as Evaluation
Metrics in Summarization in the Eval4NLP 2023 Shared Task [53.163534619649866]
本稿では,大規模言語モデルに品質評価の課題を扱えるように,プロンプトベースの手法の有効性を評価することに焦点を当てる。
我々は,標準的なプロンプト,アノテータ命令によって通知されるプロンプト,イノベーティブなチェーン・オブ・シークレットプロンプトなど,様々なプロンプト技術を用いて,系統的な実験を行った。
我々の研究は、これらのアプローチを"小さな"オープンソースモデル(orca_mini_v3_7B)を使って組み合わせることで、競争結果が得られることを示した。
論文 参考訳(メタデータ) (2023-11-01T17:44:35Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Solving Dialogue Grounding Embodied Task in a Simulated Environment
using Further Masked Language Modeling [0.0]
提案手法は,言語モデルを用いたSOTA(State-of-the-art)手法によるタスク理解を強化するために,言語モデリングを用いる。
実験の結果,提案手法が優れていることを示す証拠が得られた。
論文 参考訳(メタデータ) (2023-06-21T17:17:09Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Improving Speech Translation by Understanding and Learning from the
Auxiliary Text Translation Task [26.703809355057224]
我々は,タスクがマルチタスク学習フレームワークにおけるメインタスクに与える影響を理解するために,詳細な分析を行う。
解析により、マルチタスク学習は、異なるモダリティから同様のデコーダ表現を生成する傾向があることを確認した。
これらの知見に触発されて,翻訳品質を向上させる3つの方法を提案する。
論文 参考訳(メタデータ) (2021-07-12T23:53:40Z) - Zhestyatsky at SemEval-2021 Task 2: ReLU over Cosine Similarity for BERT
Fine-tuning [0.07614628596146598]
本稿では,SemEval-2021 Task 2: Multilingual and cross-lingual Word-in-Context Disambiguation (MCL-WiC) への貢献について述べる。
実験は、タスクの多言語設定から英語(en-en)サブトラックをカバーする。
Cosine similarity と ReLU の活性化の組み合わせにより、最も効果的な微調整手順が導かれる。
論文 参考訳(メタデータ) (2021-04-13T18:28:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。