論文の概要: Multilingual Vision-Language Models, A Survey
- arxiv url: http://arxiv.org/abs/2509.22123v1
- Date: Fri, 26 Sep 2025 09:46:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.344404
- Title: Multilingual Vision-Language Models, A Survey
- Title(参考訳): 多言語視覚言語モデルの検討
- Authors: Andrei-Alexandru Manea, Jindřich Libovický,
- Abstract要約: 本研究では,言語間でテキストや画像を処理する多言語視覚言語モデルについて検討する。
エンコーダのみおよび生成アーキテクチャにまたがる31のモデルと21のベンチマークをレビューする。
- 参考スコア(独自算出の注目度): 0.9722250595763385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This survey examines multilingual vision-language models that process text and images across languages. We review 31 models and 21 benchmarks, spanning encoder-only and generative architectures, and identify a key tension between language neutrality (consistent cross-lingual representations) and cultural awareness (adaptation to cultural contexts). Current training methods favor neutrality through contrastive learning, while cultural awareness depends on diverse data. Two-thirds of evaluation benchmarks use translation-based approaches prioritizing semantic consistency, though recent work incorporates culturally grounded content. We find discrepancies in cross-lingual capabilities and gaps between training objectives and evaluation goals.
- Abstract(参考訳): 本研究では,言語間でテキストや画像を処理する多言語視覚言語モデルについて検討する。
エンコーダのみおよび生成アーキテクチャにまたがる31のモデルと21のベンチマークをレビューし、言語中立性(一貫性のある言語間表現)と文化意識(文化的文脈への適応)の主な緊張関係を明らかにする。
現在の学習方法は、対照的な学習を通して中立性を好むが、文化的な意識は多様なデータに依存している。
評価ベンチマークの3分の2は、セマンティック一貫性を優先する翻訳ベースのアプローチを使用している。
訓練目標と評価目標の間には,言語間能力とギャップがある。
関連論文リスト
- Are Knowledge and Reference in Multilingual Language Models Cross-Lingually Consistent? [28.76156047784995]
言語間の一貫性は、言語間の伝達性を評価するために考慮すべきである。
コードスイッチングトレーニングと言語間単語アライメントの目的は、最も有望な結果を示す。
論文 参考訳(メタデータ) (2025-07-17T06:55:15Z) - Disentangling Language and Culture for Evaluating Multilingual Large Language Models [48.06219053598005]
本稿では,LLMの多言語機能を包括的に評価するデュアル評価フレームワークを提案する。
言語媒体と文化的文脈の次元に沿って評価を分解することにより、LLMが言語間を横断的に処理する能力の微妙な分析を可能にする。
論文 参考訳(メタデータ) (2025-05-30T14:25:45Z) - JiraiBench: A Bilingual Benchmark for Evaluating Large Language Models' Detection of Human Self-Destructive Behavior Content in Jirai Community [9.492476871323763]
本稿では,大規模言語モデルによる自己破壊的コンテンツ検出の有効性を評価するための,最初のバイリンガルベンチマークである JiraiBench を紹介する。
我々は,薬物過剰摂取,摂食障害,自傷など多種の自己破壊行動を含む,全国的な地雷オンラインサブカルチャーに注目した。
本データセットは,3つの行動カテゴリーに沿って,多次元アノテーションを用いた10,419の中国語投稿と5000の日本語投稿からなる。
論文 参考訳(メタデータ) (2025-03-27T16:48:58Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z) - Understanding Cross-Lingual Alignment -- A Survey [52.572071017877704]
言語間アライメントは多言語言語モデルにおける言語間の表現の有意義な類似性である。
本研究は,言語間アライメントの向上,手法の分類,分野全体からの洞察の要約といった手法の文献を調査する。
論文 参考訳(メタデータ) (2024-04-09T11:39:53Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Identifying Distributional Perspective Differences from Colingual Groups [41.58939666949895]
特定の価値観や出来事に対する視点に関する異なるグループ間での相互理解の欠如は、インフォームドな決定や偏見のない意見につながる可能性がある。
本研究では,コリンガル群を研究対象とし,言語コーパスをプロキシとして用いて分布的視点を同定する。
本稿では,共通理解を学習するための新しい計算手法を提案し,その手法を英語,中国語,日本語の文化的認識モデルの構築によって評価する。
論文 参考訳(メタデータ) (2020-04-10T08:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。