論文の概要: Can AI Understand What We Cannot Say? Measuring Multilevel Alignment Through Abortion Stigma Across Cognitive, Interpersonal, and Structural Levels
- arxiv url: http://arxiv.org/abs/2512.13142v2
- Date: Tue, 16 Dec 2025 09:48:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 14:48:05.963778
- Title: Can AI Understand What We Cannot Say? Measuring Multilevel Alignment Through Abortion Stigma Across Cognitive, Interpersonal, and Structural Levels
- Title(参考訳): AIは私たちの言うことを理解できないか? 認知的、対人的、構造的レベルを越えて、中絶のスティグマを通して多段階のアライメントを測定する
- Authors: Anika Sharma, Malavika Mampally, Chidaksh Ravuru, Kandyce Brennan, Neil Gaikwad,
- Abstract要約: 本研究では,大きな言語モデルが,その動作する認知的,対人的,構造的レベルにわたって,中絶のスティグマをコヒーレントに表現しているかどうかを検討する。
我々の多段階分析では、認知レベル(自己判断)、対人レベル(予測された判断と孤立)、構造レベル(コミュニティの非難と開示のパターン)において、モデルが協調的にスティグマを表現するかどうかを検討した。
これらのパターンは、現在のアライメントアプローチが適切な言語を保証するが、一貫性のあるマルチレベル理解はしないことを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models increasingly mediate stigmatized health decisions, their capacity to genuinely understand complex psychological and physiological phenomena remains poorly evaluated. Can AI understand what we cannot say? We investigate whether LLMs coherently represent abortion stigma across the cognitive, interpersonal, and structural levels where it operates. We systematically tested 627 demographically diverse personas across five leading LLMs using the validated Individual Level Abortion Stigma Scale (ILAS). Our multilevel analysis examined whether models coherently represent stigma at the cognitive level (self-judgment), interpersonal level (anticipated judgment and isolation), and structural level (community condemnation and disclosure patterns), as well as overall stigma. Models fail tests of genuine understanding across all levels. They overestimate interpersonal stigma while underestimating cognitive stigma, assume uniform community condemnation, introduce demographic biases absent from human validation data, miss the empirically validated stigma-secrecy relationship, and contradict themselves within theoretical constructs. These patterns reveal that current alignment approaches ensure appropriate language but not coherent multilevel understanding. This work provides empirical evidence that current LLMs lack coherent multilevel understanding of psychological and physiological constructs. AI safety in high-stakes contexts demands new approaches to design (multilevel coherence), evaluation (continuous auditing), governance and regulation (mandatory audits, accountability, deployment restrictions), and AI literacy in domains where understanding what people cannot say determines whether support helps or harms.
- Abstract(参考訳): 大規模言語モデルでは、より厳格化された健康決定を仲介する傾向にあるため、複雑な心理的および生理的現象を真に理解する能力は、いまだに不十分なままである。
AIは私たちが言えないことを理解できますか?
LLMは、その機能する認知的、対人的、構造的レベルの中絶傾向をコヒーレントに表しているかどうかを検討する。
ILAS(Personal Level Abortion Stigma Scale)を用いて,5つの主要なLCMにおいて627人の人口動態学的多様人格を系統的に検証した。
多段階分析では、認知レベル(自己判断)、対人レベル(予測された判断と孤立)、構造レベル(コミュニティの非難と開示のパターン)、および全体スティグマをコヒーレントに表すかどうかを検討した。
モデルはすべてのレベルにわたって真に理解されたテストに失敗する。
彼らは、認知上のスティグマを過小評価しながら、認知的なスティグマを過小評価し、コミュニティの均一な非難を仮定し、人間のバリデーションデータから欠落した人口統計バイアスを導入し、実証的に検証されたスティグマ・シークレット関係を見逃し、理論的な構成の中で矛盾する。
これらのパターンは、現在のアライメントアプローチが適切な言語を保証するが、一貫性のあるマルチレベル理解はしないことを示している。
この研究は、現在のLSMは、心理学的および生理的構成のコヒーレントな多面的理解を欠いているという実証的な証拠を提供する。
ハイテイクなコンテキストにおけるAIの安全性には、設計(マルチレベルコヒーレンス)、評価(継続的監査)、ガバナンスと規制(強制監査、説明責任、デプロイメント制限)、そして人々が話すことができないことを理解することが、サポートの助けになるかどうかを判断する領域におけるAIリテラシーといった新しいアプローチが必要である。
関連論文リスト
- MindEval: Benchmarking Language Models on Multi-turn Mental Health Support [10.524387723320432]
MindEvalは、現実的でマルチターンのメンタルヘルスセラピー会話において、言語モデルを自動的に評価するためのフレームワークである。
シミュレーションされた患者が生成したテキストに対する現実性を定量的に検証し、自動判断と人的判断との間に強い相関関係を示す。
われわれは12の最先端のLCMを評価し、AI固有のコミュニケーションパターンに特に弱点がある平均6点中4点以下で、すべてのモデルが苦戦していることを示す。
論文 参考訳(メタデータ) (2025-11-23T15:19:29Z) - Cognitive Foundations for Reasoning and Their Manifestation in LLMs [63.12951576410617]
大規模言語モデル(LLM)は複雑な問題を解くが、単純な変種では失敗し、人間の推論と根本的に異なるメカニズムによって正しい出力を達成することを示唆している。
我々は認知科学研究を、推論不変量、メタ認知制御、推論と知識の組織化のための表現、変換操作にまたがる28の認知要素の分類学に合成する。
複雑な問題に対して66.7%の性能向上を図り、成功構造を自動的に把握するテストタイム推論ガイダンスを開発した。
論文 参考訳(メタデータ) (2025-11-20T18:59:00Z) - From Perception to Cognition: A Survey of Vision-Language Interactive Reasoning in Multimodal Large Language Models [66.36007274540113]
MLLM(Multimodal Large Language Models)は、物理的世界に対する深い人間的な理解と相互作用を達成するための試みである。
情報取得(知覚)や推論(認知)を行う際、しばしば浅く不整合な統合を示す。
この調査では、新しい統合分析フレームワーク「知覚から認知へ」を紹介した。
論文 参考訳(メタデータ) (2025-09-29T18:25:40Z) - Multi-View Attention Multiple-Instance Learning Enhanced by LLM Reasoning for Cognitive Distortion Detection [1.660734109310745]
我々は,Large Language Models(LLMs)とMILアーキテクチャを組み合わせた新しいフレームワークを提案し,解釈可能性と表現レベルの推論を向上した。
以上の結果から,精神保健NLPの細粒度推論に対する心理学的根拠と一般化可能なアプローチが示唆された。
論文 参考訳(メタデータ) (2025-09-22T00:18:58Z) - Investigating VLM Hallucination from a Cognitive Psychology Perspective: A First Step Toward Interpretation with Intriguing Observations [60.63340688538124]
幻覚は、視覚言語モデル(VLM)で積極的に研究されている長年の問題である。
既存の研究は、幻覚は技術的な制限や梅毒のバイアスによるもので、後者はモデルがユーザの期待に沿う誤った回答を生み出す傾向があることを意味している。
本研究では, VLMの認知バイアスを分類し, サイコフィナンシー, 論理的不整合, 新たに同定された VLM の行動, 権威へのアピールなど, 幻覚へと導く。
論文 参考訳(メタデータ) (2025-07-03T19:03:16Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - Detecting anxiety and depression in dialogues: a multi-label and explainable approach [5.635300481123079]
不安と抑うつは世界中で最も一般的なメンタルヘルスの問題であり、人口の非無視的な部分に影響を及ぼす。
本研究では、不安と抑うつの多ラベル分類のための全く新しいシステムを提案する。
論文 参考訳(メタデータ) (2024-12-23T15:29:46Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。