論文の概要: Lost without translation -- Can transformer (language models) understand mood states?
- arxiv url: http://arxiv.org/abs/2512.00274v1
- Date: Sat, 29 Nov 2025 01:55:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.144483
- Title: Lost without translation -- Can transformer (language models) understand mood states?
- Title(参考訳): 翻訳なしで失う -- トランスフォーマー(言語モデル)は気分を理解できるか?
- Authors: Prakrithi Shivaprakash, Diptadhi Mukherjee, Lekhansh Shukla, Animesh Mukherjee, Prabhat Chand, Pratima Murthy,
- Abstract要約: 方法:11言語にまたがる4つの気分状態について247のユニークなフレーズを収集した。
適応ランダム指数, 正規化相互情報, 均一性, 完全性に基づく総合スコアを用いて, 評価を行った。
- 参考スコア(独自算出の注目度): 3.640688858400333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: Large Language Models show promise in psychiatry but are English-centric. Their ability to understand mood states in other languages is unclear, as different languages have their own idioms of distress. Aim: To quantify the ability of language models to faithfully represent phrases (idioms of distress) of four distinct mood states (depression, euthymia, euphoric mania, dysphoric mania) expressed in Indian languages. Methods: We collected 247 unique phrases for the four mood states across 11 Indic languages. We tested seven experimental conditions, comparing k-means clustering performance on: (a) direct embeddings of native and Romanised scripts (using multilingual and Indic-specific models) and (b) embeddings of phrases translated to English and Chinese. Performance was measured using a composite score based on Adjusted Rand Index, Normalised Mutual Information, Homogeneity and Completeness. Results: Direct embedding of Indic languages failed to cluster mood states (Composite Score = 0.002). All translation-based approaches showed significant improvement. High performance was achieved using Gemini-translated English (Composite=0.60) and human-translated English (Composite=0.61) embedded with gemini-001. Surprisingly, human-translated English, further translated into Chinese and embedded with a Chinese model, performed best (Composite = 0.67). Specialised Indic models (IndicBERT and Sarvam-M) performed poorly. Conclusion: Current models cannot meaningfully represent mood states directly from Indic languages, posing a fundamental barrier to their psychiatric application for diagnostic or therapeutic purposes in India. While high-quality translation bridges this gap, reliance on proprietary models or complex translation pipelines is unsustainable. Models must first be built to understand diverse local languages to be effective in global mental health.
- Abstract(参考訳): 背景: 大規模言語モデルは精神医学において有望であるが、英語中心である。
他の言語におけるムード状態を理解する能力は、異なる言語が独自の苦悩のイディオムを持っているため、不明確である。
Aim: インド語で表現される4つの異なる気分状態(抑うつ、自閉、万能性マニア、抑うつ性マニア)の語句を忠実に表現する言語モデルの能力の定量化。
方法:11言語にまたがる4つの気分状態について247のユニークなフレーズを収集した。
我々は,k平均クラスタリング性能を7つの実験条件で比較した。
(a)ネイティブおよびロマン化スクリプトの直接埋め込み(多言語およびインデックス特化モデルを用いた)、
b)英語と中国語に翻訳された句の埋め込み。
適応ランダム指数, 正規化相互情報, 均一性, 完全性に基づく総合スコアを用いて, 評価を行った。
結果: Indic 言語の直接埋め込みは気分状態のクラスタリングに失敗した (Composite Score = 0.002)。
翻訳に基づくアプローチはすべて、大幅に改善された。
Gemini-tranlate English (Composite=0.60) と Human-tranlate English (Composite=0.61) を gemini-001 に組み込んだ。
驚いたことに、人訳英語は中国語に翻訳され、中国語のモデルが組み込まれ、最もよく演奏された(Composite = 0.67)。
IndicBERTとSarvam-Mは性能が良くなかった。
結論:現在のモデルは、インド語から直接のムード状態を有意義に表現することはできない。
高品質な翻訳はこのギャップを埋めるが、プロプライエタリなモデルや複雑な翻訳パイプラインへの依存は持続不可能である。
モデルはまず、グローバルなメンタルヘルスに有効な多様なローカル言語を理解するために構築されなければならない。
関連論文リスト
- IndicSentEval: How Effectively do Multilingual Transformer Models encode Linguistic Properties for Indic Languages? [16.53746282142566]
Indic言語6言語における13の摂動にまたがる8つの言語特性の符号化能力とロバスト性について検討した。
表面, 構文, 意味的特性の探索解析により, ほぼすべての多言語モデルが英語における一貫した符号化性能を示した。
インデックス固有の多言語モデルは、普遍的モデルよりもインディック言語の言語特性を捉えている。
論文 参考訳(メタデータ) (2024-10-03T15:50:08Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Mitigating Hallucinations and Off-target Machine Translation with
Source-Contrastive and Language-Contrastive Decoding [53.84948040596055]
修正された復号化目標を用いて、障害ケースを緩和する2つの関連手法を提案する。
大規模多言語モデルM2M-100 (418M) とSMaLL-100の実験は、これらの手法が幻覚やターゲット外の翻訳を抑制することを示した。
論文 参考訳(メタデータ) (2023-09-13T17:15:27Z) - No Language Left Behind: Scaling Human-Centered Machine Translation [69.28110770760506]
低レベルの言語と高レベルの言語のパフォーマンスギャップを狭めるためのデータセットとモデルを作成します。
何千ものタスクをトレーニングしながらオーバーフィッティングに対処するために,複数のアーキテクチャとトレーニングの改善を提案する。
本モデルでは,従来の最先端技術と比較して,BLEUの44%の改善を実現している。
論文 参考訳(メタデータ) (2022-07-11T07:33:36Z) - Do Multilingual Language Models Capture Differing Moral Norms? [71.52261949766101]
大量多言語文表現は、未処理データの大規模なコーパスに基づいて訓練される。
これは、高資源言語からの道徳的判断を含む文化的価値をモデルが把握する原因となる可能性がある。
特定の言語におけるデータ不足は、ランダムで潜在的に有害な信念を発達させる可能性がある。
論文 参考訳(メタデータ) (2022-03-18T12:26:37Z) - IndicBART: A Pre-trained Model for Natural Language Generation of Indic
Languages [24.638109544527104]
IndicBARTは、11のIndic言語と英語に焦点を当てた、多言語でシーケンスからシーケンスまでの事前訓練モデルである。
IndicBARTをニューラルネットワーク変換(NMT)と極端な要約という2つのNLGタスクで評価する。
論文 参考訳(メタデータ) (2021-09-07T07:08:33Z) - Attention based Sequence to Sequence Learning for Machine Translation of
Low Resourced Indic Languages -- A case of Sanskrit to Hindi [0.0]
この論文は、10K近いサンプルと178,000個のトークンを持つサンスクリットからヒンディー語バイリンガル並列コーパスの構築を示す。
注意機構に基づく神経翻訳は、人間の評価において88%の精度を達成し、サンスクリットからヒンディー語への翻訳におけるBLEUスコアは0.92である。
論文 参考訳(メタデータ) (2021-09-07T04:55:48Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Vy\=akarana: A Colorless Green Benchmark for Syntactic Evaluation in
Indic Languages [0.0]
インジケート言語は、豊富なモーフィオシンタックス、文法的ジェンダー、自由な線形単語順序、および高インフレクション型形態学を有する。
Vy=akarana - 多言語言語モデルの構文評価のためのIndic言語における性別バランスの取れたカラーレスグリーン文のベンチマーク。
評価タスクから得られたデータセットを用いて、さまざまなアーキテクチャの5つの多言語言語モデルをIndic言語で調べる。
論文 参考訳(メタデータ) (2021-03-01T09:07:58Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。