論文の概要: AI as a deliberative partner fosters intercultural empathy for Americans but fails for Latin American participants
- arxiv url: http://arxiv.org/abs/2504.13887v2
- Date: Sat, 26 Jul 2025 19:53:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 14:15:46.232474
- Title: AI as a deliberative partner fosters intercultural empathy for Americans but fails for Latin American participants
- Title(参考訳): 討論パートナーとしてのAIは、アメリカ人に対する文化間共感を育むが、ラテンアメリカの参加者には失敗する
- Authors: Isabel Villanueva, Tara Bobinac, Binwei Yao, Junjie Hu, Kaiping Chen,
- Abstract要約: 異文化間の協議は、肯定的な感情的関与を通じて、アメリカの参加者の間で文化間の共感を高めた。
参加者主導のフィードバックの分析では、AIのラテンアメリカ文脈の表現において、ユーザが直接フラグを立て、文化的に不適切なAI応答を説明した。
我々の研究は、同じAIシステムが、別の文化グループに対して同時に文化間の理解を促進する方法を明らかにすることによって、議論理論とAIアライメント研究の両方を前進させる。
- 参考スコア(独自算出の注目度): 4.641694322213005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite increasing AI chatbot deployment in public discourse, empirical evidence on their capacity to foster intercultural empathy remains limited. Through a randomized experiment, we assessed how different AI deliberation approaches--cross-cultural deliberation (presenting other-culture perspectives), own-culture deliberation (representing participants' own culture), and non-deliberative control--affect intercultural empathy across American and Latin American participants. Cross-cultural deliberation increased intercultural empathy among American participants through positive emotional engagement, but produced no such effects for Latin American participants, who perceived AI responses as culturally inauthentic despite explicit prompting to represent their cultural perspectives. Our analysis of participant-driven feedback, where users directly flagged and explained culturally inappropriate AI responses, revealed systematic gaps in AI's representation of Latin American contexts that persist despite sophisticated prompt engineering. These findings demonstrate that current approaches to AI cultural alignment--including linguistic adaptation and explicit cultural prompting--cannot fully address deeper representational asymmetries in AI systems. Our work advances both deliberation theory and AI alignment research by revealing how the same AI system can simultaneously promote intercultural understanding for one cultural group while failing for another, with critical implications for designing equitable AI systems for cross-cultural democratic discourse.
- Abstract(参考訳): 公開談話におけるAIチャットボットの展開は増加しているが、文化間共感を育む能力に関する実証的な証拠は依然として限られている。
ランダム化実験を通じて、我々は、異文化的な議論(異文化的な視点を表す)、自文化的な議論(参加者自身の文化を表現する)、非自由主義的な制御-アメリカとラテンアメリカの参加者に対する異文化間の共感にどのように影響するかを評価した。
異文化間の協議は、肯定的な感情的エンゲージメントを通じて、アメリカの参加者の間で文化間の共感を高めたが、ラテンアメリカの参加者にはそのような影響は生じなかった。
文化的に不適切なAI応答を直接フラグ付けして説明する参加者主導のフィードバックの分析では、高度な迅速なエンジニアリングにもかかわらず、AIのラテンアメリカコンテキスト表現の体系的なギャップが明らかになった。
これらの結果は、AIの文化的アライメント(言語適応や明示的な文化的プロンプトを含む)に対する現在のアプローチは、AIシステムのより深い表現的非対称性に完全に対応できないことを示している。
我々の研究は、同じAIシステムが、別の文化集団に対して同時に文化間の理解を促進しながら、別の文化集団にとって失敗することを明らかにすることによって、議論論とAIアライメント研究の両方を前進させ、異文化間の民主的談話のための平等なAIシステムを設計する上で重要な意味を持つ。
関連論文リスト
- Against 'softmaxing' culture [0.21756081703275998]
私はこの現象を「ソフトマックス文化」と呼び、今日のAI評価に直面する根本的な課題の1つです。
まず、システム評価の開始時に「文化とは何か?」と尋ねる代わりに、「文化とは何か?」という問いから始めます。
私は、文化的普遍性が存在するという哲学的主張を認めていますが、その課題は単にそれらを記述することではなく、それらの特質に関してそれらを満たすことです。
論文 参考訳(メタデータ) (2025-06-28T17:59:17Z) - From Word to World: Evaluate and Mitigate Culture Bias via Word Association Test [48.623761108859085]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好を緩和するために,カルチャー対応のステアリング機構を統合する革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - CAReDiO: Cultural Alignment of LLM via Representativeness and Distinctiveness Guided Data Optimization [50.90288681622152]
大規模言語モデル(LLM)は、より深く様々な地域における人間の生活に統合される。
既存のアプローチは、文化固有のコーパスを微調整することで、文化的に整合したLCMを開発する。
本稿では,新しい文化データ構築フレームワークであるCAReDiOを紹介する。
論文 参考訳(メタデータ) (2025-04-09T13:40:13Z) - Mind the Gesture: Evaluating AI Sensitivity to Culturally Offensive Non-Verbal Gestures [67.89565097372751]
ジェスチャーは非言語コミュニケーションの不可欠な部分であり、文化によって異なる意味を持つ。
AIシステムがよりグローバルなアプリケーションに統合されるにつれて、文化的な犯罪が必然的に持続しないことが重要になります。
攻撃性,文化的意義,文脈的要因を付加した288のジェスチャー・カントリーペアのデータセットであるMC-SIGNS(Multi-Cultural Set of In appropriate Gestures and Nonverbal Signs)を紹介する。
論文 参考訳(メタデータ) (2025-02-24T23:10:08Z) - Rethinking AI Cultural Alignment [1.8434042562191815]
人間の文化的価値は、特定のAIシステムのコンテキスト内で理解されなければならないことを示す。
文化的アライメントは双方向のプロセスとして再編成されるべきである、と私たちは主張する。
論文 参考訳(メタデータ) (2025-01-13T23:42:37Z) - CultureVLM: Characterizing and Improving Cultural Understanding of Vision-Language Models for over 100 Countries [63.00147630084146]
視覚言語モデル(VLM)は高度な人間とAIの相互作用を持つが、文化的な理解に苦慮している。
CultureVerseは大規模なマルチモーダルベンチマークで、682の文化的概念、188の国/地域、15の文化的概念、3の質問タイプをカバーしている。
本稿では,文化理解の大幅な向上を実現するために,我々のデータセットを微調整したVLMのシリーズであるCultureVLMを提案する。
論文 参考訳(メタデータ) (2025-01-02T14:42:37Z) - The Honorific Effect: Exploring the Impact of Japanese Linguistic Formalities on AI-Generated Physics Explanations [0.0]
本研究では,モーメントの保存則を説明する際に,日本語の敬意が大規模言語モデル(LLM)の応答に与える影響について検討した。
我々は、ChatGPT、Coral、Geminiのバリエーションを含む6つの最先端AIモデルの出力を14種類の名誉形式を用いて分析した。
論文 参考訳(メタデータ) (2024-07-12T11:31:00Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - How Culture Shapes What People Want From AI [0.0]
文化的に多様なグループの視点をAI開発に組み込む必要がある。
我々は,AIの主流となるビジョンを拡張し,再定義し,再構築することを目的とした,研究のための新しい概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-08T07:08:19Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - Cultural Bias and Cultural Alignment of Large Language Models [0.9374652839580183]
広く使われている5つの大言語モデルに対して,文化的偏見の分散評価を行う。
全てのモデルは、英語とプロテスタントのヨーロッパ諸国に似た文化的価値を示す。
生成AIの出力における文化的バイアスを軽減するために,文化的なプロンプトと継続的な評価を用いることを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - Assessing Cross-Cultural Alignment between ChatGPT and Human Societies:
An Empirical Study [9.919972416590124]
ChatGPTは、対話で人間のような反応を生成できるという異常な能力で広く認知されている。
そこで我々は,ChatGPTの文化的背景を,人間の文化的差異を定量化するための質問に対する応答の分析によって検討した。
論文 参考訳(メタデータ) (2023-03-30T15:43:39Z) - Cultural Incongruencies in Artificial Intelligence [5.817158625734485]
我々は、AIベースの言語とビジョン技術の文脈において、文化的な依存関係と矛盾のセットについて説明する。
これらの技術が世界規模で多様な社会や文化と相互作用し、異なる価値と解釈の実践によって問題が発生する。
論文 参考訳(メタデータ) (2022-11-19T18:45:02Z) - An Analytics of Culture: Modeling Subjectivity, Scalability,
Contextuality, and Temporality [13.638494941763637]
文化とAIの間には双方向の関係があり、AIモデルは文化を分析するためにますます使われており、それによって文化に対する理解が形成される。
一方、これらのモデルでは、文化の表現を暗黙的に、常に正しく、暗黙的に学習する。
これにより、文化の分析にAIの使用を制限し、バイアスのような文化的な複雑な問題に関してAIの問題を引き起こす緊張が生じます。
論文 参考訳(メタデータ) (2022-11-14T15:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。