論文の概要: Beyond Instrumental and Substitutive Paradigms: Introducing Machine Culture as an Emergent Phenomenon in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.17096v1
- Date: Fri, 23 Jan 2026 13:11:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.228861
- Title: Beyond Instrumental and Substitutive Paradigms: Introducing Machine Culture as an Emergent Phenomenon in Large Language Models
- Title(参考訳): 楽器・代替パラダイムを超えて:大規模言語モデルにおける創発的現象としての機械文化の導入
- Authors: Yueqing Hu, Xinyang Peng, Yukun Zhao, Lin Qiu, Ka-lai Hung, Kaiping Peng,
- Abstract要約: 本研究は,TextbfMachine Cultureを創発的で異なる現象として提案する。
私たちは8つのマルチモーダルタスクで2ドル(Model Origin: US vs. China)の2ドル(Prompt Language: English vs. Chinese)のファクターデザインを採用しました。
LLMは人間の文化をシミュレートするのではなく、創発的な機械文化を示すと結論付けている。
- 参考スコア(独自算出の注目度): 9.785535924216765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent scholarship typically characterizes Large Language Models (LLMs) through either an \textit{Instrumental Paradigm} (viewing models as reflections of their developers' culture) or a \textit{Substitutive Paradigm} (viewing models as bilingual proxies that switch cultural frames based on language). This study challenges these anthropomorphic frameworks by proposing \textbf{Machine Culture} as an emergent, distinct phenomenon. We employed a 2 (Model Origin: US vs. China) $\times$ 2 (Prompt Language: English vs. Chinese) factorial design across eight multimodal tasks, uniquely incorporating image generation and interpretation to extend analysis beyond textual boundaries. Results revealed inconsistencies with both dominant paradigms: Model origin did not predict cultural alignment, with US models frequently exhibiting ``holistic'' traits typically associated with East Asian data. Similarly, prompt language did not trigger stable cultural frame-switching; instead, we observed \textbf{Cultural Reversal}, where English prompts paradoxically elicited higher contextual attention than Chinese prompts. Crucially, we identified a novel phenomenon termed \textbf{Service Persona Camouflage}: Reinforcement Learning from Human Feedback (RLHF) collapsed cultural variance in affective tasks into a hyper-positive, zero-variance ``helpful assistant'' persona. We conclude that LLMs do not simulate human culture but exhibit an emergent Machine Culture -- a probabilistic phenomenon shaped by \textit{superposition} in high-dimensional space and \textit{mode collapse} from safety alignment.
- Abstract(参考訳): 最近の奨学金は、通常、 \textit{Instrumental Paradigm} (開発者の文化の反映としてモデルを見る) または \textit{Substitutive Paradigm} (言語に基づいて文化的なフレームを切り替えるバイリンガルプロキシとしてモデルを見る) を通じて、Large Language Models (LLMs) を特徴づけている。
本研究は,これらの人為的枠組みを創発的で独特な現象として,<textbf{Machine Culture}を提案する。
私たちは8つのマルチモーダルタスクにまたがって2ドル (Model Origin: US vs. China) $\times$ 2 (Prompt Language: English vs. Chinese) 要素設計を採用しました。
モデルの起源は、文化的なアライメントを予測せず、アメリカのモデルは、東アジアのデータに典型的な「全体的」な特徴をしばしば示している。
同様に、プロンプト言語は安定した文化的フレームスイッチングを誘発せず、代わりに、英語のプロンプトが中国語のプロンプトよりも高い文脈的注意をパラドックス的に引き起こすような \textbf{Cultural Reversal} を観察した。
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF: Reinforcement Learning from Human Feedback: RLHF)。
LLMは人間の文化をシミュレートするのではなく,高次元空間における「textit{superposition}」と「textit{mode collapse}」によって形成される確率論的現象である「創発的機械文化」を示す。
関連論文リスト
- Where Culture Fades: Revealing the Cultural Gap in Text-to-Image Generation [43.352493955825736]
現在のT2Iモデルは、多言語的なプロンプトの下で、文化的に中立な結果や英語に偏った結果をもたらすことが多い。
本稿では,培養感受性シグナルを少数の固定層内の小さなニューロン群に局在させる探索法を提案する。
論文 参考訳(メタデータ) (2025-11-21T14:40:50Z) - The fragility of "cultural tendencies" in LLMs [23.77480663886995]
報告された「文化的傾向」は安定した特徴ではなく、特定のモデルやタスクデザインの脆弱な成果物であると主張する。
以上の結果から,プロンプト言語はアウトプットに最小限の影響を及ぼし,これらのモデルが基礎的文化的信念を符号化しているというLSZの主張に異議を唱えた。
論文 参考訳(メタデータ) (2025-10-07T12:37:06Z) - Liaozhai through the Looking-Glass: On Paratextual Explicitation of Culture-Bound Terms in Machine Translation [70.43884512651668]
我々は、文学・翻訳研究からジェネットのパラテキスト論(1987年)を定式化し、機械翻訳におけるパラテキスト明示の課題を紹介した。
古典中国語の短編集集Liaozhaiの4つの英訳から560の専門家対応パラテキストのデータセットを構築した。
本研究は,言語的等価性を超えた機械翻訳におけるパラテクスト的明示の可能性を示すものである。
論文 参考訳(メタデータ) (2025-09-27T16:27:36Z) - TCC-Bench: Benchmarking the Traditional Chinese Culture Understanding Capabilities of MLLMs [13.069833806549914]
中国伝統文化理解ベンチマーク(TCC-Bench)を提案する。
TCC-Benchは、文化的に豊かで視覚的に多様なデータで構成されており、博物館の工芸品、日常の生活シーン、漫画、その他の文化的に重要な文脈の画像が組み込まれている。
テキストのみのモードでGPT-4oを利用する半自動パイプラインを採用し、候補問題を生成し、続いて人間によるキュレーションを行い、データ品質を保証し、潜在的なデータ漏洩を回避する。
論文 参考訳(メタデータ) (2025-05-16T14:10:41Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - The Problem of Alignment [1.2277343096128712]
大規模言語モデルは、大きなコーパスから統計的パターンとして学習されたシーケンスを生成する。
最初のトレーニングモデルが人間の価値観と一致しなくてはならない場合、他のモデルよりも一定の継続が望ましい。
ユーザとモデル間の双方向インタラクションとして,この構造化の実践について検討する。
論文 参考訳(メタデータ) (2023-12-30T11:44:59Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - On the Cultural Gap in Text-to-Image Generation [75.69755281031951]
テキスト・トゥ・イメージ(T2I)生成における課題のひとつは、トレーニングデータに存在する文化ギャップの意図しない反映である。
クロスカルチャー画像を生成するT2Iモデルの能力を体系的に評価するベンチマークは存在しない。
本稿では,モデルが対象文化にどの程度適しているかを評価するため,包括的評価基準付きChallenging Cross-Cultural (C3)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-07-06T13:17:55Z) - ABINet++: Autonomous, Bidirectional and Iterative Language Modeling for
Scene Text Spotting [121.11880210592497]
言語モデルの限られた能力は,1)暗黙的な言語モデリング,2)一方向の特徴表現,3)雑音入力を伴う言語モデルから生じる。
シーンテキストスポッティングのための自律的で双方向かつ反復的なABINet++を提案する。
論文 参考訳(メタデータ) (2022-11-19T03:50:33Z) - Deception detection in text and its relation to the cultural dimension
of individualism/collectivism [6.17866386107486]
本研究は,文化における特定の言語的特徴の活用の相違が,個性主義/選択主義の分断に関して,規範に起因しているかどうかを考察する。
我々は、音韻学、形態学、構文に基づく幅広いn-gram特徴を実験することにより、カルチャー/言語対応分類器を作成する。
我々は6カ国(米国、ベルギー、インド、ロシア、メキシコ、ルーマニア)の5言語(英語、オランダ、ロシア、スペイン、ルーマニア)から11のデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-05-26T13:09:47Z) - Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese
Pre-trained Language Models [62.41139712595334]
中国語のための新しい事前学習パラダイムであるLattice-BERTを提案する。
文中の文字や単語から格子グラフを構築し、これらすべてのテキスト単位をトランスフォーマーに供給します。
本モデルが12層設定で平均1.5%の増加をもたらすことを示した。
論文 参考訳(メタデータ) (2021-04-15T02:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。