論文の概要: PAT: Parallel Attention Transformer for Visual Question Answering in
Vietnamese
- arxiv url: http://arxiv.org/abs/2307.08247v1
- Date: Mon, 17 Jul 2023 05:05:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:44:20.502907
- Title: PAT: Parallel Attention Transformer for Visual Question Answering in
Vietnamese
- Title(参考訳): PAT:ベトナムにおける視覚質問応答のための並列注意変換器
- Authors: Nghia Hieu Nguyen and Kiet Van Nguyen
- Abstract要約: 並列注意変換器(PAT)を導入し,ベンチマークVivQAデータセットのベースラインと,SAAAやMCANなど他のSOTAメソッドのすべてのベースラインと比較して,最高の精度を実現する。
- 参考スコア(独自算出の注目度): 3.3504365823045044
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present in this paper a novel scheme for multimodal learning named the
Parallel Attention mechanism. In addition, to take into account the advantages
of grammar and context in Vietnamese, we propose the Hierarchical Linguistic
Features Extractor instead of using an LSTM network to extract linguistic
features. Based on these two novel modules, we introduce the Parallel Attention
Transformer (PAT), achieving the best accuracy compared to all baselines on the
benchmark ViVQA dataset and other SOTA methods including SAAA and MCAN.
- Abstract(参考訳): 本稿では,並列注意機構と呼ばれるマルチモーダル学習のための新しい手法を提案する。
さらに,ベトナム語における文法と文脈の利点を考慮し,LSTMネットワークを用いて言語特徴を抽出する代わりに,階層型言語特徴抽出器を提案する。
これら2つの新しいモジュールに基づき、ベンチマークvivqaデータセットおよびsaaaおよびmcanを含むsataメソッドのすべてのベースラインと比較して、最高の精度を達成する並列注意トランスフォーマー(pat)を導入する。
関連論文リスト
- Segment-Based Interactive Machine Translation for Pre-trained Models [2.0871483263418806]
対話型機械翻訳環境におけるLLM(Pre-trained large language model)の利用について検討する。
システムは、ユーザが各イテレーションで提供するフィードバックを使って、インタラクティブに完璧な翻訳を生成する。
我々は,mBART,mT5,SoTA(State-of-the-art)機械翻訳モデルの性能を,ユーザ作業に関するベンチマークデータセット上で比較した。
論文 参考訳(メタデータ) (2024-07-09T16:04:21Z) - Bilingual Corpus Mining and Multistage Fine-Tuning for Improving Machine
Translation of Lecture Transcripts [50.00305136008848]
本研究では,並列コーパスマイニングのためのフレームワークを提案し,Coursera の公開講義から並列コーパスを迅速かつ効果的にマイニングする方法を提案する。
日英両国の講義翻訳において,約5万行の並列コーパスを抽出し,開発・テストセットを作成した。
また,コーパスの収集とクリーニング,並列文のマイニング,マイニングデータのクリーニング,高品質な評価スプリットの作成に関するガイドラインも提案した。
論文 参考訳(メタデータ) (2023-11-07T03:50:25Z) - Translation-Enhanced Multilingual Text-to-Image Generation [61.41730893884428]
テキスト・ツー・イメージ・ジェネレーション(TTI)の研究は、現在でも主に英語に焦点を当てている。
そこで本研究では,多言語TTIとニューラルマシン翻訳(NMT)のブートストラップmTTIシステムへの応用について検討する。
我々は,mTTIフレームワーク内で多言語テキスト知識を重み付け,統合する新しいパラメータ効率アプローチであるEnsemble Adapter (EnsAd)を提案する。
論文 参考訳(メタデータ) (2023-05-30T17:03:52Z) - $m^4Adapter$: Multilingual Multi-Domain Adaptation for Machine
Translation with a Meta-Adapter [128.69723410769586]
多言語ニューラルネットワーク翻訳モデル(MNMT)は、ドメインと言語ペアのデータに基づいて評価すると、最先端の性能が得られる。
ドメインシフトや新しい言語ペアへの変換にMNMTモデルを使用すると、パフォーマンスが劇的に低下する。
我々はメタラーニングとアダプタを用いたドメイン知識と言語知識を組み合わせた$m4Adapter$を提案する。
論文 参考訳(メタデータ) (2022-10-21T12:25:05Z) - Learning Domain Specific Language Models for Automatic Speech
Recognition through Machine Translation [0.0]
我々は、タスク固有のテキストデータの翻訳を最初に取得するために、中間ステップとしてNeural Machine Translationを使用します。
我々はNMTビームサーチグラフから単語混乱ネットワークを導出する手法を開発した。
NMT混在ネットワークは、n-gramと繰り返しニューラルネットワークLMの両方の難易度を低減するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-21T10:29:20Z) - Tilde at WMT 2020: News Task Systems [0.38073142980733]
本稿では、Tilde氏がWMT 2020に投稿した英語とポーランド語の両方の方向のニュース翻訳タスクについて述べる。
我々は,形態的に動機づけたサブワード単位ベースのトランスフォーマーベースモデルとして,ベースラインシステムを構築している。
最終モデルはTransformerベースとTransformerビッグモデルのアンサンブルで、左右に並べ替えられる。
論文 参考訳(メタデータ) (2020-10-29T08:59:37Z) - A Corpus for English-Japanese Multimodal Neural Machine Translation with
Comparable Sentences [21.43163704217968]
既存の画像キャプションデータセットから合成した文に匹敵する多モーダルな英和コーパスを提案する。
ベースライン実験において翻訳スコアが低かったため、現在のマルチモーダルNMTモデルは、比較文データを有効に活用するために設計されていないと信じている。
論文 参考訳(メタデータ) (2020-10-17T06:12:25Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。