論文の概要: Meaning Is Not A Metric: Using LLMs to make cultural context legible at scale
- arxiv url: http://arxiv.org/abs/2505.23785v1
- Date: Fri, 23 May 2025 04:10:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.492523
- Title: Meaning Is Not A Metric: Using LLMs to make cultural context legible at scale
- Title(参考訳): 意味はメトリクスではない - LLMを使って文化的コンテキストを大規模に検証する
- Authors: Cody Kommers, Drew Hemment, Maria Antoniak, Joel Z. Leibo, Hoyt Long, Emily Robinson, Adam Sobey,
- Abstract要約: 我々は、大規模言語モデル(LLM)は、AIベースの社会技術システムにおいて前例のない規模で、文化的文脈、つまり人間の意味を作ることができると論じる。
私たちはこれを、生成AIの適用にとって重要な方向として捉え、重要な5つの課題を特定します。
- 参考スコア(独自算出の注目度): 3.283323176831235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper argues that large language models (LLMs) can make cultural context, and therefore human meaning, legible at an unprecedented scale in AI-based sociotechnical systems. We argue that such systems have previously been unable to represent human meaning because they rely on thin descriptions: numerical representations that enforce standardization and therefore strip human activity of the cultural context that gives it meaning. By contrast, scholars in the humanities and qualitative social sciences have developed frameworks for representing meaning through thick description: verbal representations that accommodate heterogeneity and retain contextual information needed to represent human meaning. While these methods can effectively codify meaning, they are difficult to deploy at scale. However, the verbal capabilities of LLMs now provide a means of (at least partially) automating the generation and processing of thick descriptions, potentially overcoming this bottleneck. We argue that the problem of rendering human meaning legible is not just about selecting better metrics, but about developing new representational formats (based on thick description). We frame this as a crucial direction for the application of generative AI and identify five key challenges: preserving context, maintaining interpretive pluralism, integrating perspectives based on lived experience and critical distance, distinguishing qualitative content from quantitative magnitude, and acknowledging meaning as dynamic rather than static. Furthermore, we suggest that thick description has the potential to serve as a unifying framework to address a number of emerging concerns about the difficulties of representing culture in (or using) LLMs.
- Abstract(参考訳): このポジションペーパーは、大きな言語モデル(LLM)は、AIベースの社会技術システムにおいて前例のない規模で、文化的な文脈、つまり人間の意味を作ることができると論じている。
このようなシステムはこれまで,人間の意味を表現できないのは,それらが細かな記述に依存しているからである,と我々は主張する。
対照的に、人文科学や定性的社会科学の学者は、深い記述を通して意味を表現するための枠組みを開発してきた。
これらの手法は意味を効果的に体系化することができるが、大規模に展開することは困難である。
しかし、LLMの言語能力は、(少なくとも部分的には)厚い記述の生成と処理を自動化する手段を提供しており、このボトルネックを克服する可能性がある。
人間の意味を正当に表現することの問題は、より良いメトリクスを選択することではなく、(濃厚な記述に基づく)新しい表現形式を開発することであると論じる。
我々は、これを生成AIの適用のための重要な方向として捉え、コンテキストの保存、解釈的多元性維持、生きた経験と臨界距離に基づく視点の統合、質的内容の定量化、静的ではなくダイナミックな意味の認識という5つの重要な課題を特定します。
さらに, 厚い記述は, LLMにおける文化の表現(あるいは使用)の難しさに対処するための統一的な枠組みとして機能する可能性が示唆された。
関連論文リスト
- Reasoning Beyond Labels: Measuring LLM Sentiment in Low-Resource, Culturally Nuanced Contexts [10.492471013369782]
本稿では、感情を文脈に依存し、文化的に埋め込まれた構成として扱う枠組みを提案する。
我々は,大言語モデル(LLM)が,ナイロビの若手健康グループからのWhatsAppメッセージの感情にどのような影響を与えるかを評価する。
論文 参考訳(メタデータ) (2025-08-06T08:27:55Z) - Vocabulary-free Fine-grained Visual Recognition via Enriched Contextually Grounded Vision-Language Model [52.01031460230826]
伝統的なアプローチは固定語彙と閉集合分類パラダイムに大きく依存している。
近年の研究では、大規模言語モデルと視覚言語モデル(VLM)を組み合わせることで、オープンセット認識が可能であることが実証されている。
そこで本研究では,精密な視覚認識のための最先端の手法であるEnriched-FineRを提案する。
論文 参考訳(メタデータ) (2025-07-30T20:06:01Z) - Cultural Bias in Large Language Models: Evaluating AI Agents through Moral Questionnaires [0.0]
大きな言語モデルは、言語能力にもかかわらず、多様な文化的道徳的枠組みを表現できない。
驚くべきことに、モデルのサイズが大きくなることは、文化的な表現の忠実さを継続的に改善するわけではない。
我々の結果は、AIシステムが多様な人間の価値を表すことを保証するために、より基礎的なアライメント目標と評価指標を求めている。
論文 参考訳(メタデータ) (2025-07-14T08:59:26Z) - On The Role of Intentionality in Knowledge Representation: Analyzing Scene Context for Cognitive Agents with a Tiny Language Model [0.0]
セマンティック時空のPromise理論のモデルは効果的なTiny言語モデルとして使用される。
低レベルのテキストからテーマや概念を識別することができる。
スケール分離は、部品を意図した内容と環境コンテキストに分類するのに使用できます。
論文 参考訳(メタデータ) (2025-07-14T07:34:58Z) - Text Embeddings Should Capture Implicit Semantics, Not Just Surface Meaning [17.00358234728804]
テキスト埋め込み研究コミュニティは、表面的な意味を超えて、暗黙のセマンティクスを中心的なモデリング目標として受け入れるべきである、と我々は主張する。
現在の埋め込みモデルは、一般的にそのような深度に欠けるデータに基づいて訓練され、表面的な意味の獲得に報いるベンチマークで評価される。
我々のパイロット研究は、最先端のモデルでさえ、暗黙のセマンティックスタスクにおける単純化されたベースラインよりも、わずかに優れたパフォーマンスしか発揮していないことを示す、このギャップを強調している。
論文 参考訳(メタデータ) (2025-06-10T02:11:42Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [52.32745233116143]
人間は知識をセマンティック圧縮によってコンパクトなカテゴリに分類する。
大規模言語モデル(LLM)は、顕著な言語能力を示す。
しかし、その内部表現が、圧縮と意味的忠実性の間の人間のようなトレードオフにぶつかるかどうかは不明だ。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Evaluating LLMs for Targeted Concept Simplification for Domain-Specific Texts [53.421616210871704]
コンテクストの欠如と難解な概念に対する不慣れさは、大人の読者がドメイン固有のテキストに難渋する大きな理由である。
テキストの書き直しを簡略化し,不慣れな概念を含むテキストの理解を支援する「目標概念の簡略化」を提案する。
本研究は,オープンソースおよび商用LLMの性能と,この課題に対する簡単な辞書ベースラインのベンチマークを行う。
論文 参考訳(メタデータ) (2024-10-28T05:56:51Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Dealing with Semantic Underspecification in Multimodal NLP [3.5846770619764423]
人間として言語を習得しようとするインテリジェントなシステムは、その意味的過小評価に対処しなければならない。
標準のNLPモデルは、原則として、そのような余分な情報にアクセスできないか制限されている。
言語を他のモダリティ、例えば視覚に基礎を置くマルチモーダルシステムは、この現象を説明するために自然に装備されている。
論文 参考訳(メタデータ) (2023-06-08T14:39:24Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Meaning without reference in large language models [14.26628686684198]
我々は、大きな言語モデル(LLM)が意味の重要な側面を捉えているのではないかと論じている。
概念的役割は、内部表現状態間の関係によって定義されるので、意味はモデルのアーキテクチャから決定できない。
論文 参考訳(メタデータ) (2022-08-05T02:48:26Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。