論文の概要: Gaussian Smoothen Semantic Features (GSSF) -- Exploring the Linguistic
Aspects of Visual Captioning in Indian Languages (Bengali) Using MSCOCO
Framework
- arxiv url: http://arxiv.org/abs/2002.06701v1
- Date: Sun, 16 Feb 2020 23:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 17:33:02.315116
- Title: Gaussian Smoothen Semantic Features (GSSF) -- Exploring the Linguistic
Aspects of Visual Captioning in Indian Languages (Bengali) Using MSCOCO
Framework
- Title(参考訳): Gaussian Smoothen Semantic Features (GSSF) -- MSCOCOフレームワークを用いたインドの言語(Bengali)における視覚的キャプションの言語学的側面の探索
- Authors: Chiranjib Sur
- Abstract要約: 本研究では,インド地域言語を用いた画像キャプションのためのセマンティック選択法として,Gaussian Smoothen Semantic Features (GSSF)を導入した。
また、既存の翻訳文と英語のクラウドソース文をトレーニングに使用する手順も導入した。
この研究の主な貢献は、ベンガル語のためのディープラーニングアーキテクチャの開発です。
- 参考スコア(独自算出の注目度): 9.89901717499058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we have introduced Gaussian Smoothen Semantic Features (GSSF)
for Better Semantic Selection for Indian regional language-based image
captioning and introduced a procedure where we used the existing translation
and English crowd-sourced sentences for training. We have shown that this
architecture is a promising alternative source, where there is a crunch in
resources. Our main contribution of this work is the development of deep
learning architectures for the Bengali language (is the fifth widely spoken
language in the world) with a completely different grammar and language
attributes. We have shown that these are working well for complex applications
like language generation from image contexts and can diversify the
representation through introducing constraints, more extensive features, and
unique feature spaces. We also established that we could achieve absolute
precision and diversity when we use smoothened semantic tensor with the
traditional LSTM and feature decomposition networks. With better learning
architecture, we succeeded in establishing an automated algorithm and
assessment procedure that can help in the evaluation of competent applications
without the requirement for expertise and human intervention.
- Abstract(参考訳): 本研究では,インド地域言語による画像キャプションのためのより良いセマンティック選択のためのGaussian Smoothen Semantic Features (GSSF)を導入し,既存の翻訳文と英語のクラウドソース文をトレーニングに使用するための手順を紹介した。
我々は、このアーキテクチャがリソースの難題がある、有望な代替ソースであることを証明した。
この研究の主な貢献は、完全に異なる文法と言語特性を持つベンガル語(世界で5番目に広く話されている言語)のためのディープラーニングアーキテクチャの開発です。
画像コンテキストから言語を生成するような複雑なアプリケーションではうまく機能し、制約やより広範な機能、ユニークな特徴空間を導入して表現を多様化することができる。
また,従来のLSTMと特徴分解ネットワークを用いたスムーズな意味テンソルを用いた場合,絶対精度と多様性が得られた。
より優れた学習アーキテクチャにより、専門知識や人間の介入を必要とせずに、有能なアプリケーションの評価を支援する自動アルゴリズムと評価手順の確立に成功した。
関連論文リスト
- Prompt Engineering Using GPT for Word-Level Code-Mixed Language Identification in Low-Resource Dravidian Languages [0.0]
インドのような多言語社会では、テキストはしばしばコードミキシングを示し、異なる言語レベルで現地の言語と英語をブレンドする。
本稿では,Dravidian言語における単語レベルのLI課題への対処を目的とした,共有タスクのプロンプトベース手法を提案する。
本研究では,GPT-3.5 Turboを用いて,大言語モデルが単語を正しいカテゴリに分類できるかどうかを検証した。
論文 参考訳(メタデータ) (2024-11-06T16:20:37Z) - Improving Multilingual Neural Machine Translation by Utilizing Semantic and Linguistic Features [18.76505158652759]
複数の言語間の意味的特徴と言語的特徴を利用して多言語翻訳を強化することを提案する。
エンコーダ側では,意味的特徴と言語的特徴を両立させることにより,エンコーダ表現を整合させる非係合学習タスクを導入する。
デコーダ側では、言語エンコーダを利用して低レベル言語機能を統合し、ターゲット言語生成を支援する。
論文 参考訳(メタデータ) (2024-08-02T17:10:12Z) - Constructing and Expanding Low-Resource and Underrepresented Parallel Datasets for Indonesian Local Languages [0.0]
インドネシアの5つの言語を特徴とする多言語並列コーパスであるBhinneka Korpusを紹介する。
我々のゴールは、これらの資源へのアクセスと利用を強化し、国内へのリーチを広げることです。
論文 参考訳(メタデータ) (2024-04-01T09:24:06Z) - Cross-Lingual NER for Financial Transaction Data in Low-Resource
Languages [70.25418443146435]
半構造化テキストデータにおける言語間名前認識のための効率的なモデリングフレームワークを提案する。
我々は2つの独立したSMSデータセットを英語とアラビア語で使用し、それぞれが半構造化された銀行取引情報を持っている。
わずか30のラベル付きサンプルにアクセスすることで、我々のモデルは、英語からアラビア語までの商人、金額、その他の分野の認識を一般化することができる。
論文 参考訳(メタデータ) (2023-07-16T00:45:42Z) - H-AES: Towards Automated Essay Scoring for Hindi [33.755800922763946]
ヒンディー語領域におけるAES(Automated Essay Scoring)の最先端手法を再現・比較する。
LSTM Networks や Fine-Tuned Transformer Architecture など,古典的な機能ベースの機械学習(ML)と高度なエンドツーエンドモデルを採用しています。
我々は、英訳エッセイを用いて、我々のモデルを訓練し、評価し、自分たちの小規模で実世界のヒンディー語コーパスでそのパフォーマンスを実証的に測定する。
論文 参考訳(メタデータ) (2023-02-28T15:14:15Z) - A Comprehensive Understanding of Code-mixed Language Semantics using
Hierarchical Transformer [28.3684494647968]
コード混合言語のセマンティクスを学習するための階層型トランスフォーマーベースアーキテクチャ(HIT)を提案する。
提案手法を17のデータセット上で6つのインド語と9つのNLPタスクで評価した。
論文 参考訳(メタデータ) (2022-04-27T07:50:18Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Reinforced Iterative Knowledge Distillation for Cross-Lingual Named
Entity Recognition [54.92161571089808]
言語間NERは、知識をリッチリソース言語から低リソース言語に転送する。
既存の言語間NERメソッドは、ターゲット言語でリッチなラベル付けされていないデータをうまく利用しない。
半教師付き学習と強化学習のアイデアに基づく新しいアプローチを開発する。
論文 参考訳(メタデータ) (2021-06-01T05:46:22Z) - Vokenization: Improving Language Understanding with Contextualized,
Visual-Grounded Supervision [110.66085917826648]
我々は,言語トークンを関連画像に文脈的にマッピングすることで,言語のみのデータに対するマルチモーダルアライメントを補間する手法を開発した。
語彙化」は比較的小さな画像キャプションデータセットに基づいて訓練され、それを大規模言語コーパスのための語彙生成に適用する。
これらの文脈的に生成された語彙を用いて学習し、視覚的に制御された言語モデルにより、複数の純粋言語タスクにおいて、自己教師による代替よりも一貫した改善が示される。
論文 参考訳(メタデータ) (2020-10-14T02:11:51Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - Building Low-Resource NER Models Using Non-Speaker Annotation [58.78968578460793]
言語横断的な手法はこれらの懸念に対処する上で顕著な成功を収めた。
本稿では,Non-Speaker''(NS)アノテーションを用いた低リソース名前付きエンティティ認識(NER)モデル構築のための補完的アプローチを提案する。
NSアノテータの使用は、現代の文脈表現上に構築された言語間メソッドよりも、一貫した結果が得られることを示す。
論文 参考訳(メタデータ) (2020-06-17T03:24:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。