論文の概要: Meaning Is Not A Metric: Using LLMs to make cultural context legible at scale
- arxiv url: http://arxiv.org/abs/2505.23785v1
- Date: Fri, 23 May 2025 04:10:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.492523
- Title: Meaning Is Not A Metric: Using LLMs to make cultural context legible at scale
- Title(参考訳): 意味はメトリクスではない - LLMを使って文化的コンテキストを大規模に検証する
- Authors: Cody Kommers, Drew Hemment, Maria Antoniak, Joel Z. Leibo, Hoyt Long, Emily Robinson, Adam Sobey,
- Abstract要約: 我々は、大規模言語モデル(LLM)は、AIベースの社会技術システムにおいて前例のない規模で、文化的文脈、つまり人間の意味を作ることができると論じる。
私たちはこれを、生成AIの適用にとって重要な方向として捉え、重要な5つの課題を特定します。
- 参考スコア(独自算出の注目度): 3.283323176831235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper argues that large language models (LLMs) can make cultural context, and therefore human meaning, legible at an unprecedented scale in AI-based sociotechnical systems. We argue that such systems have previously been unable to represent human meaning because they rely on thin descriptions: numerical representations that enforce standardization and therefore strip human activity of the cultural context that gives it meaning. By contrast, scholars in the humanities and qualitative social sciences have developed frameworks for representing meaning through thick description: verbal representations that accommodate heterogeneity and retain contextual information needed to represent human meaning. While these methods can effectively codify meaning, they are difficult to deploy at scale. However, the verbal capabilities of LLMs now provide a means of (at least partially) automating the generation and processing of thick descriptions, potentially overcoming this bottleneck. We argue that the problem of rendering human meaning legible is not just about selecting better metrics, but about developing new representational formats (based on thick description). We frame this as a crucial direction for the application of generative AI and identify five key challenges: preserving context, maintaining interpretive pluralism, integrating perspectives based on lived experience and critical distance, distinguishing qualitative content from quantitative magnitude, and acknowledging meaning as dynamic rather than static. Furthermore, we suggest that thick description has the potential to serve as a unifying framework to address a number of emerging concerns about the difficulties of representing culture in (or using) LLMs.
- Abstract(参考訳): このポジションペーパーは、大きな言語モデル(LLM)は、AIベースの社会技術システムにおいて前例のない規模で、文化的な文脈、つまり人間の意味を作ることができると論じている。
このようなシステムはこれまで,人間の意味を表現できないのは,それらが細かな記述に依存しているからである,と我々は主張する。
対照的に、人文科学や定性的社会科学の学者は、深い記述を通して意味を表現するための枠組みを開発してきた。
これらの手法は意味を効果的に体系化することができるが、大規模に展開することは困難である。
しかし、LLMの言語能力は、(少なくとも部分的には)厚い記述の生成と処理を自動化する手段を提供しており、このボトルネックを克服する可能性がある。
人間の意味を正当に表現することの問題は、より良いメトリクスを選択することではなく、(濃厚な記述に基づく)新しい表現形式を開発することであると論じる。
我々は、これを生成AIの適用のための重要な方向として捉え、コンテキストの保存、解釈的多元性維持、生きた経験と臨界距離に基づく視点の統合、質的内容の定量化、静的ではなくダイナミックな意味の認識という5つの重要な課題を特定します。
さらに, 厚い記述は, LLMにおける文化の表現(あるいは使用)の難しさに対処するための統一的な枠組みとして機能する可能性が示唆された。
関連論文リスト
- From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [52.32745233116143]
人間は知識をセマンティック圧縮によってコンパクトなカテゴリに分類する。
大規模言語モデル(LLM)は、顕著な言語能力を示す。
しかし、その内部表現が、圧縮と意味的忠実性の間の人間のようなトレードオフにぶつかるかどうかは不明だ。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Evaluating LLMs for Targeted Concept Simplification for Domain-Specific Texts [53.421616210871704]
コンテクストの欠如と難解な概念に対する不慣れさは、大人の読者がドメイン固有のテキストに難渋する大きな理由である。
テキストの書き直しを簡略化し,不慣れな概念を含むテキストの理解を支援する「目標概念の簡略化」を提案する。
本研究は,オープンソースおよび商用LLMの性能と,この課題に対する簡単な辞書ベースラインのベンチマークを行う。
論文 参考訳(メタデータ) (2024-10-28T05:56:51Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Dealing with Semantic Underspecification in Multimodal NLP [3.5846770619764423]
人間として言語を習得しようとするインテリジェントなシステムは、その意味的過小評価に対処しなければならない。
標準のNLPモデルは、原則として、そのような余分な情報にアクセスできないか制限されている。
言語を他のモダリティ、例えば視覚に基礎を置くマルチモーダルシステムは、この現象を説明するために自然に装備されている。
論文 参考訳(メタデータ) (2023-06-08T14:39:24Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Meaning without reference in large language models [14.26628686684198]
我々は、大きな言語モデル(LLM)が意味の重要な側面を捉えているのではないかと論じている。
概念的役割は、内部表現状態間の関係によって定義されるので、意味はモデルのアーキテクチャから決定できない。
論文 参考訳(メタデータ) (2022-08-05T02:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。