論文の概要: CLIX: Cross-Lingual Explanations of Idiomatic Expressions
- arxiv url: http://arxiv.org/abs/2501.03191v2
- Date: Sat, 15 Feb 2025 04:51:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 16:13:23.327306
- Title: CLIX: Cross-Lingual Explanations of Idiomatic Expressions
- Title(参考訳): CLIX: 慣用的表現の言語間説明
- Authors: Aaron Gluck, Katharina von der Wense, Maria Leonor Pacheco,
- Abstract要約: 本稿では,eXaticpressionsの言語横断的説明課題であるCLIXを提案する。
この課題に対する現在のNLPモデルの能力について検討し、課題はあるものの、大きな言語モデルは有望であることを示す。
私たちは、これらのシステムを教育ツールに確実に組み込む前に、対処すべき重要な課題を強調するために、詳細なエラー分析を行います。
- 参考スコア(独自算出の注目度): 4.8786815288933045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated definition generation systems have been proposed to support vocabulary expansion for language learners. The main barrier to the success of these systems is that learners often struggle to understand definitions due to the presence of potentially unfamiliar words and grammar, particularly when non-standard language is involved. To address these challenges, we propose CLIX, the task of Cross-Lingual explanations of Idiomatic eXpressions. We explore the capabilities of current NLP models for this task, and observe that while it remains challenging, large language models show promise. Finally, we perform a detailed error analysis to highlight the key challenges that need to be addressed before we can reliably incorporate these systems into educational tools.
- Abstract(参考訳): 言語学習者のための語彙拡張を支援するために,自動定義生成システムを提案する。
これらのシステムの成功に対する大きな障壁は、学習者が定義を理解するのに苦労することがしばしばあることである。
これらの課題に対処するため,Idiomatic eXpressionsの言語横断的説明課題であるCLIXを提案する。
この課題に対する現在のNLPモデルの能力について検討し、課題はあるものの、大きな言語モデルは有望であることを示す。
最後に、これらのシステムを教育ツールに確実に組み込む前に、対処すべき重要な課題を強調するために、詳細なエラー解析を行う。
関連論文リスト
- Linguistic Blind Spots of Large Language Models [14.755831733659699]
言語アノテーションタスクにおける最近の大規模言語モデル(LLM)の性能について検討する。
近年の LLM は言語クエリに対処する上で有効性が限られており,言語学的に複雑な入力に苦しむことが多い。
この結果から,LLMの設計・開発における今後の進歩を示唆する知見が得られた。
論文 参考訳(メタデータ) (2025-03-25T01:47:13Z) - Interactively Diagnosing Errors in a Semantic Parser [7.136205674624813]
本稿では,CNLUのための対話型エラー診断システムについて述べる。
モデルベース診断問題として,INLDパイプラインの最初の2段階をキャストする方法を示す。
本システムでは, 合成例における意味的誤りを診断する能力を示す。
論文 参考訳(メタデータ) (2024-07-08T21:16:09Z) - Vocabulary-informed Zero-shot and Open-set Learning [128.83517181045815]
本稿では,教師付き,ゼロショット,一般化されたゼロショット,オープンセット認識の問題に対処する語彙インフォームド学習を提案する。
具体的には、(教師なしと教師なしの両方)語彙からの距離制約を取り入れた意味多様体に基づく認識のための重み付けされた最大縁フレームワークを提案する。
得られたモデルは、教師付き、ゼロショット、一般化されたゼロショット、および大きなオープンセット認識の改善を示し、Animal with AttributesとImageNetデータセットで最大310Kの語彙を持つ。
論文 参考訳(メタデータ) (2023-01-03T08:19:22Z) - Extensible Prompts for Language Models on Zero-shot Language Style
Customization [89.1622516945109]
X-Promptは、自然言語(NL)を超えた大きな言語モデル(LLM)を指示する
新しい想像的単語を登録することで、LLMにNL単語で記述するのが難しい概念を理解するよう指示することができる。
これらの虚構語は、様々なプロンプトでNL語のように(再)使用できるように、分布外頑健であるように設計されている。
論文 参考訳(メタデータ) (2022-12-01T16:11:56Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - Shortcut Learning of Large Language Models in Natural Language
Understanding [119.45683008451698]
大規模言語モデル(LLM)は、一連の自然言語理解タスクにおいて最先端のパフォーマンスを達成した。
予測のショートカットとしてデータセットのバイアスやアーティファクトに依存するかも知れません。
これは、その一般化性と敵対的堅牢性に大きな影響を与えている。
論文 参考訳(メタデータ) (2022-08-25T03:51:39Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Analyzing the Limits of Self-Supervision in Handling Bias in Language [52.26068057260399]
我々は、言語モデルが、認識、識別、抽出、言い換えの4つのタスクのセマンティクスをいかにうまく捉えているかを評価する。
分析の結果,言語モデルでは,ジェンダーや政治的アフィリエイトなど,様々なバイアス次元にまたがって,これらのタスクを広範囲にわたって実行することが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-16T05:36:08Z) - A Short Survey of Pre-trained Language Models for Conversational AI-A
NewAge in NLP [17.10418053437171]
最近導入された事前学習言語モデルは、データ不足の問題に対処する可能性がある。
これらのモデルは、階層的関係、長期依存、感情など、異なる言語の側面を捉えることを実証している。
本論文では,これらの事前学習モデルが対話システムに関連する課題を克服できるかどうかを明らかにする。
論文 参考訳(メタデータ) (2021-04-22T01:00:56Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。