論文の概要: Cross-linguistic disagreement as a conflict of semantic alignment norms in multilingual AI~Linguistic Diversity as a Problem for Philosophy, Cognitive Science, and AI~
- arxiv url: http://arxiv.org/abs/2503.04792v1
- Date: Sat, 01 Mar 2025 03:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 08:47:08.826382
- Title: Cross-linguistic disagreement as a conflict of semantic alignment norms in multilingual AI~Linguistic Diversity as a Problem for Philosophy, Cognitive Science, and AI~
- Title(参考訳): 多言語AIにおける意味的アライメント規範の対立としての言語間不一致 -哲学・認知科学・AI問題としての言語的多様性-
- Authors: Masaharu Mizumoto, Dat Tien Nguyen, Justin Sytsma, Mark Alfano, Yu Izumi, Koji Fujita, Nguyen Le Minh,
- Abstract要約: 言語間の整合性(CL整合性)は言語間の普遍的な概念を求める。
言語固有の意味規範を尊重する民族一貫性。
普遍表現と言語間移動能力が本質的に望ましいという仮定を見つける。
- 参考スコア(独自算出の注目度): 0.2443066828522608
- License:
- Abstract: Multilingual large language models (LLMs) face an often-overlooked challenge stemming from intrinsic semantic differences across languages. Linguistic divergence can sometimes lead to cross-linguistic disagreements--disagreements purely due to semantic differences about a relevant concept. This paper identifies such disagreements as conflicts between two fundamental alignment norms in multilingual LLMs: cross-linguistic consistency (CL-consistency), which seeks universal concepts across languages, and consistency with folk judgments (Folk-consistency), which respects language-specific semantic norms. Through examining responses of conversational multilingual AIs in English and Japanese with the cases used in philosophy (cases of knowledge-how attributions), this study demonstrates that even state-of-the-art LLMs provide divergent and internally inconsistent responses. Such findings reveal a novel qualitative limitation in crosslingual knowledge transfer, or conceptual crosslingual knowledge barriers, challenging the assumption that universal representations and cross-linguistic transfer capabilities are inherently desirable. Moreover, they reveal conflicts of alignment policies of their developers, highlighting critical normative questions for LLM researchers and developers. The implications extend beyond technical alignment challenges, raising normative, moral-political, and metaphysical questions about the ideals underlying AI development--questions that are shared with philosophers and cognitive scientists but for which no one yet has definitive answers, inviting a multidisciplinary approach to balance the practical benefits of cross-linguistic consistency and respect for linguistic diversity.
- Abstract(参考訳): 多言語大言語モデル(LLM)は、言語間の固有の意味的差異から生じる、しばしば見過ごされる課題に直面している。
言語的な相違は、時として言語横断的な意見の相違につながることがある--純粋に、関連する概念に関する意味的な相違によって。
本稿では,言語間の共通概念を求める言語間整合性(CL整合性)と,言語固有の意味規範を尊重する民意判断(Folk整合性)との整合性(Folk整合性)という,多言語LLMにおける2つの基本的な整合性規範の相違について述べる。
本研究は,英語と日本語における会話型多言語AIの応答を,哲学的事例(ナレッジ・ハウ・アトリビューションの事例)で調べることで,最先端のLLMでさえ,相違性および内部矛盾性のある応答を提供することを示した。
このような知見は、普遍的な表現と言語間移動能力が本質的に望ましいという仮定に挑戦する、クロスリンガルな知識伝達、あるいは概念的クロスリンガルな知識障壁において、新しい定性的な制限を明らかにしている。
さらに、彼らは開発者のアライメントポリシーの矛盾を明らかにし、LLM研究者と開発者にとって批判的な規範的な質問を強調している。
この意味は、技術的アライメントの課題を超えて、規範的、道徳的、メタ物理学的な質問を、AI開発の根底にある理想について提起する。-哲学者や認知科学者と共有されているが、誰も明確な答えを持っていない。
関連論文リスト
- The Shrinking Landscape of Linguistic Diversity in the Age of Large Language Models [7.811355338367627]
大規模言語モデル (LLMs) は, 言語多様性の顕著な低下と関係があることが示唆された。
テキストの中核的な内容は、LLMがテキストを洗練・書き直しする際に保持されるが、書体スタイルを均質化するだけでなく、特定の支配的特徴やバイアスを選択的に増幅し、他を抑圧する方法でスタイル的要素を変更することも示している。
論文 参考訳(メタデータ) (2025-02-16T20:51:07Z) - From No to Know: Taxonomy, Challenges, and Opportunities for Negation Understanding in Multimodal Foundation Models [48.68342037881584]
否定は、欠如、否定、矛盾を含む言語構造であり、多言語多モーダル基盤モデルにとって重要な課題である。
本稿では, 否定構造を包括的に分類し, 構造的, 意味的, 文化的要因がマルチモーダル基盤モデルにどのように影響するかを考察する。
我々は、特別なベンチマーク、言語固有のトークン化、きめ細かい注意機構、高度なマルチモーダルアーキテクチャを提唱する。
論文 参考訳(メタデータ) (2025-02-10T16:55:13Z) - Benchmarking Linguistic Diversity of Large Language Models [14.824871604671467]
本稿では,言語モデルによる人間の言語的豊かさの保全を検討することの重要性を強調する。
言語多様性の観点からLLMを評価するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-13T16:46:03Z) - Toward Cultural Interpretability: A Linguistic Anthropological Framework for Describing and Evaluating Large Language Models (LLMs) [13.71024600466761]
本稿では,言語人類学と機械学習(ML)の新たな統合を提案する。
新たな調査分野、文化的解釈可能性(CI)の理論的実現可能性を示す。
CIは、言語と文化の間の動的関係がコンテキストに敏感でオープンな会話を可能にする方法を強調している。
論文 参考訳(メタデータ) (2024-11-07T22:01:50Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Are Structural Concepts Universal in Transformer Language Models?
Towards Interpretable Cross-Lingual Generalization [27.368684663279463]
本稿では,言語間の概念対応を明確に整合させ,言語間の一般化を促進する可能性について検討する。
言語構文の側面をテストベッドとして,43言語を解析した結果,高い整合性を示した。
本稿では,メタラーニングに基づく概念空間の整合学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T14:50:51Z) - Dissociating language and thought in large language models [52.39241645471213]
大規模言語モデル(LLM)は、人間の言語を習得する上で、今までに最も近いモデルである。
我々は、この区別を人間の神経科学に根ざし、形式的、機能的な能力は異なる神経機構に依存していることを示した。
LLMは形式的能力は驚くほど優れているが、機能的能力のタスクにおける性能はいまだに不明瞭である。
論文 参考訳(メタデータ) (2023-01-16T22:41:19Z) - NormSAGE: Multi-Lingual Multi-Cultural Norm Discovery from Conversations
On-the-Fly [61.77957329364812]
本稿では,対話型多言語・多文化規範発見の新たな課題に対処する枠組みを提案する。
NormSAGEはノルム発見タスクと会話コンテキストを表す有向質問を通じてノルムに関する知識を導き出す。
さらに、発見される規範が正しいことを保証する自己検証メカニズムにより、言語モデル幻覚のリスクに対処する。
論文 参考訳(メタデータ) (2022-10-16T18:30:05Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。