論文の概要: RAMP: Retrieval and Attribute-Marking Enhanced Prompting for
Attribute-Controlled Translation
- arxiv url: http://arxiv.org/abs/2305.17131v1
- Date: Fri, 26 May 2023 17:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 13:09:20.849223
- Title: RAMP: Retrieval and Attribute-Marking Enhanced Prompting for
Attribute-Controlled Translation
- Title(参考訳): ramp: 属性制御翻訳のための検索と属性マーク強化プロンプト
- Authors: Gabriele Sarti, Phu Mon Htut, Xing Niu, Benjamin Hsu, Anna Currey,
Georgiana Dinu, Maria Nadejde
- Abstract要約: 属性制御翻訳(ACT)は機械翻訳のサブタスクであり、翻訳出力のスタイリスティックまたは言語的属性を制御する。
本稿では,大規模な多言語言語モデルを活用し,少数ショットおよびゼロショット設定でACTを実行するRetrieval and Attribute-Marking enhanced Prompting (RAMP)を提案する。
RAMPは、意味的類似性検索コンポーネントを組み込むことで、標準プロンプトアプローチよりも生成精度を向上させる。
- 参考スコア(独自算出の注目度): 17.866031090216477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribute-controlled translation (ACT) is a subtask of machine translation
that involves controlling stylistic or linguistic attributes (like formality
and gender) of translation outputs. While ACT has garnered attention in recent
years due to its usefulness in real-world applications, progress in the task is
currently limited by dataset availability, since most prior approaches rely on
supervised methods. To address this limitation, we propose Retrieval and
Attribute-Marking enhanced Prompting (RAMP), which leverages large multilingual
language models to perform ACT in few-shot and zero-shot settings. RAMP
improves generation accuracy over the standard prompting approach by (1)
incorporating a semantic similarity retrieval component for selecting similar
in-context examples, and (2) marking in-context examples with attribute
annotations. Our comprehensive experiments show that RAMP is a viable approach
in both zero-shot and few-shot settings.
- Abstract(参考訳): 属性制御翻訳(ACT)は機械翻訳のサブタスクであり、翻訳出力の形式的または言語的属性(形式性や性別など)を制御する。
actは現実のアプリケーションで有用であることから近年注目を集めているが、以前のアプローチは教師付きメソッドに依存しているため、現在、そのタスクの進捗はデータセットの可用性によって制限されている。
この制限に対処するために、大規模な多言語言語モデルを利用して、少数ショットおよびゼロショット設定でACTを実行するRetrieval and Attribute-Marking enhanced Prompting (RAMP)を提案する。
RAMPは,(1)類似したインコンテキストの例を選択するための意味的類似性検索コンポーネントを組み込んで,(2)属性アノテーションでインコンテキストの例をマークすることで,標準プロンプトアプローチよりも生成精度を向上させる。
包括的な実験によると、RAMPはゼロショットと少数ショットの両方で実行可能なアプローチである。
関連論文リスト
- XFormParser: A Simple and Effective Multimodal Multilingual Semi-structured Form Parser [35.69888780388425]
本研究では, 単純だが効果的な textbfMultimodal と textbfMultilingual semi-structured textbfFORM textbfXForm フレームワークを提案する。
textbfXFormは、包括的な事前訓練された言語モデルに固定されており、革新的にエンティティ認識とリレーショナルREである。
本フレームワークは,マルチ言語およびゼロショットの両文脈において,タスク間の性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-27T16:37:17Z) - HELPER-X: A Unified Instructable Embodied Agent to Tackle Four Interactive Vision-Language Domains with Memory-Augmented Language Models [13.963676467274109]
我々は、より広い例とプロンプトでメモリを拡張することで、HELPERの機能を拡張する。
この単純なHELPERの共有メモリへの拡張により、エージェントは対話、自然言語の命令、アクティブな質問、一般的な部屋の再編成から計画を実行するドメイン間で作業することができる。
本稿では,AChRED,TAA,DialFRED,Tidy Taskの4種類の対話型視覚言語エンボディエージェントについて評価を行った。
論文 参考訳(メタデータ) (2024-04-29T19:12:42Z) - RAR: Retrieving And Ranking Augmented MLLMs for Visual Recognition [78.97487780589574]
MLLM(Multimodal Large Language Models)は、細粒度カテゴリの分類において優れている。
本稿では,MLLMの検索とランク付けのための拡張手法を提案する。
提案手法は, 微粒化認識における固有の限界に対処するだけでなく, モデルの包括的知識基盤も維持する。
論文 参考訳(メタデータ) (2024-03-20T17:59:55Z) - Controllable Data Augmentation for Few-Shot Text Mining with Chain-of-Thought Attribute Manipulation [35.33340453046864]
Chain-of-Thought Attribute Manipulation (CoTAM)は、既存の例から新しいデータを生成する新しいアプローチである。
我々は,(1)属性分解,(2)操作提案,(3)文の再構築という3つのステップで,テキストを直接編集するよう促すチェーン・オブ・シントを利用する。
論文 参考訳(メタデータ) (2023-07-14T00:10:03Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Active Learning for Multilingual Semantic Parser [65.2180122032335]
多言語意味解析(AL-MSP)のための最初の能動的学習手法を提案する。
AL-MSPは翻訳対象の既存のデータセットからサブセットのみを選択する。
実験の結果,AL-MSPは理想的な選択法で翻訳コストを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2023-01-30T14:19:29Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Evaluating Multilingual Text Encoders for Unsupervised Cross-Lingual
Retrieval [51.60862829942932]
本稿では,言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性に着目した体系的実証研究を行う。
文レベルのCLIRでは、最先端のパフォーマンスが達成できることを実証する。
しかし、ピーク性能は、汎用の多言語テキストエンコーダをオフ・ザ・シェルフで使うのではなく、文の理解タスクにさらに特化したバリエーションに依存している。
論文 参考訳(メタデータ) (2021-01-21T00:15:38Z) - Exploring Cross-sentence Contexts for Named Entity Recognition with BERT [1.4998865865537996]
本稿では, BERT モデルを用いた NER におけるクロス文情報の利用を5言語で検討する。
BERT入力に追加文の形でコンテキストを追加することで、テスト対象言語やモデル上でのNER性能が向上することがわかった。
そこで本稿では,文の様々な予測を組み合わせ,さらにNER性能を向上させるための簡単な手法であるCMV(Contextual Majority Voting)を提案する。
論文 参考訳(メタデータ) (2020-06-02T12:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。