論文の概要: LLM-Powered Automatic Translation and Urgency in Crisis Scenarios
- arxiv url: http://arxiv.org/abs/2602.13452v1
- Date: Fri, 13 Feb 2026 20:56:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.037624
- Title: LLM-Powered Automatic Translation and Urgency in Crisis Scenarios
- Title(参考訳): 危機シナリオにおけるLLMによる自動翻訳と緊急処理
- Authors: Belu Ticona, Antonis Anastasopoulos,
- Abstract要約: 大規模言語モデル(LLM)は危機の準備と対応のためにますます提案されている。
本研究では,危機領域翻訳における最先端LLMと機械翻訳システムの性能について検討する。
- 参考スコア(独自算出の注目度): 0.21485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly proposed for crisis preparedness and response, particularly for multilingual communication. However, their suitability for high-stakes crisis contexts remains insufficiently evaluated. This work examines the performance of state-of-the-art LLMs and machine translation systems in crisis-domain translation, with a focus on preserving urgency, which is a critical property for effective crisis communication and triaging. Using multilingual crisis data and a newly introduced urgency-annotated dataset covering over 32 languages, we show that both dedicated translation models and LLMs exhibit substantial performance degradation and instability. Crucially, even linguistically adequate translations can distort perceived urgency, and LLM-based urgency classifications vary widely depending on the language of the prompt and input. These findings highlight significant risks in deploying general-purpose language technologies for crisis communication and underscore the need for crisis-aware evaluation frameworks.
- Abstract(参考訳): 大規模言語モデル(LLM)は危機の準備と応答、特に多言語通信のためにますます提案されている。
しかし、高い危機状況への適合性はまだ十分に評価されていない。
本研究は、危機ドメイン翻訳における現状のLLMと機械翻訳システムの性能を、効果的な危機コミュニケーションとトリアージのための重要な特性である緊急性の維持に焦点をあてて検討する。
多言語危機データと32言語以上の緊急アノテートデータセットを用いて、専用翻訳モデルとLLMの両方が性能劣化と不安定性を示すことを示す。
重要なことに、言語学的に適切な翻訳でさえ、認識された緊急性を歪ませることができ、LLMに基づく緊急分類は、インプットと入力の言語によって大きく異なる。
これらの知見は、危機コミュニケーションのための汎用言語技術の展開における重大なリスクを強調し、危機対応評価フレームワークの必要性を浮き彫りにしている。
関連論文リスト
- Code-Switching In-Context Learning for Cross-Lingual Transfer of Large Language Models [64.54005959758733]
我々は,コードスイッチング・イン・コンテキスト・ラーニング(CSICL)を,推論中の翻訳障壁を克服するための原則的かつ堅牢なアプローチとして導入する。
4つのLLM、6つのデータセット、10の言語にわたる広範な実験を行い、知識集約型ドメインと推論指向ドメインの両方にまたがる。
その結果、CSICLはX-ICLベースラインを一貫して上回り、ターゲット言語と見当たらない言語の両方で3.1%pと1.9%pを達成した。
論文 参考訳(メタデータ) (2025-10-07T08:35:42Z) - Between Help and Harm: An Evaluation of Mental Health Crisis Handling by LLMs [6.0460961868478975]
臨床的にインフォームドされた6つのメンタルヘルス危機カテゴリーの統一分類を導入する。
我々は、危機タイプを分類し、安全で適切な応答を生成する能力のために、3つの最先端のLCMをベンチマークする。
間接的または曖昧なリスク信号の処理におけるシステム的弱点、定式的および不完全なデフォルト応答への依存、およびユーザコンテキストとの頻繁な不一致を識別する。
論文 参考訳(メタデータ) (2025-09-29T14:42:23Z) - Mechanistic Understanding and Mitigation of Language Confusion in English-Centric Large Language Models [56.61984030508691]
言語混乱に関する最初の機械論的解釈可能性研究について述べる。
混乱点(CP)がこの現象の中心であることを示す。
比較分析によって同定された少数の臨界ニューロンを多言語で調整したニューロンで編集すると、混乱が著しく軽減されることがわかった。
論文 参考訳(メタデータ) (2025-05-22T11:29:17Z) - Understanding LLMs' Cross-Lingual Context Retrieval: How Good It Is And Where It Comes From [73.76577052090695]
12言語にわたる40以上の大言語モデル(LLM)の言語間コンテキスト検索を評価する。
訓練後のオープン LLM は、クローズドソース LLM に匹敵する、強い言語間コンテキスト検索能力を示す。
以上の結果から, 大規模プレトレーニングではxMRCの性能が向上できないことが示唆された。
論文 参考訳(メタデータ) (2025-04-15T06:35:27Z) - Leveraging LLMs for MT in Crisis Scenarios: a blueprint for low-resource languages [2.648836772989769]
堅牢で適応可能な機械翻訳(MT)システムの必要性は、これまで以上に迫っている。
本研究では,Large Language Models (LLMs) とMultilingual LLMs (MLLMs) を利用して,このようなシナリオにおけるMT機能の向上を図る。
本研究は,LLMの最先端機能と微調整技術とコミュニティ主導型コーパス開発戦略を組み合わせた新しいアプローチを概説する。
論文 参考訳(メタデータ) (2024-10-31T12:52:26Z) - Unveiling Linguistic Regions in Large Language Models [49.298360366468934]
大規模言語モデル (LLM) は言語間アライメントと一般化能力を示す。
本稿では,LLMの言語能力に関するいくつかの調査を行う。
論文 参考訳(メタデータ) (2024-02-22T16:56:13Z) - Text Embedding Inversion Security for Multilingual Language Models [2.790855523145802]
研究は、基礎となるモデルに関する知識がなくても、埋め込みからテキストを再構築できることを示している。
本研究は,単言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語
論文 参考訳(メタデータ) (2024-01-22T18:34:42Z) - Better to Ask in English: Cross-Lingual Evaluation of Large Language
Models for Healthcare Queries [31.82249599013959]
大規模言語モデル(LLM)は、一般大衆が情報にアクセスし消費する方法を変えつつある。
LLMは印象的な言語理解と生成能力を示しているが、その安全性に関する懸念は依然として最重要である。
これらのLLMが非英語の文脈でどのように機能するかは、まだ不明である。
論文 参考訳(メタデータ) (2023-10-19T20:02:40Z) - Evaluating Multilingual Text Encoders for Unsupervised Cross-Lingual
Retrieval [51.60862829942932]
本稿では,言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性に着目した体系的実証研究を行う。
文レベルのCLIRでは、最先端のパフォーマンスが達成できることを実証する。
しかし、ピーク性能は、汎用の多言語テキストエンコーダをオフ・ザ・シェルフで使うのではなく、文の理解タスクにさらに特化したバリエーションに依存している。
論文 参考訳(メタデータ) (2021-01-21T00:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。