論文の概要: Ontologies in Design: How Imagining a Tree Reveals Possibilites and Assumptions in Large Language Models
- arxiv url: http://arxiv.org/abs/2504.03029v1
- Date: Thu, 03 Apr 2025 21:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:47:46.122686
- Title: Ontologies in Design: How Imagining a Tree Reveals Possibilites and Assumptions in Large Language Models
- Title(参考訳): デザインのオントロジー:大規模言語モデルにおける木の可能性と仮定のイマジネーション
- Authors: Nava Haghighi, Sunny Yu, James Landay, Daniela Rosner,
- Abstract要約: 価値に基づく分析は重要であるが、これらのシステムを分析する上ではあまり認識されていない。
多元主義との実践に基づく関わりの必要性を示唆し、設計の方向性を検討するための4つの方向性を提供する。
- 参考スコア(独自算出の注目度): 0.4563238570902448
- License:
- Abstract: Amid the recent uptake of Generative AI, sociotechnical scholars and critics have traced a multitude of resulting harms, with analyses largely focused on values and axiology (e.g., bias). While value-based analyses are crucial, we argue that ontologies -- concerning what we allow ourselves to think or talk about -- is a vital but under-recognized dimension in analyzing these systems. Proposing a need for a practice-based engagement with ontologies, we offer four orientations for considering ontologies in design: pluralism, groundedness, liveliness, and enactment. We share examples of potentialities that are opened up through these orientations across the entire LLM development pipeline by conducting two ontological analyses: examining the responses of four LLM-based chatbots in a prompting exercise, and analyzing the architecture of an LLM-based agent simulation. We conclude by sharing opportunities and limitations of working with ontologies in the design and development of sociotechnical systems.
- Abstract(参考訳): 最近のジェネレーティブAIの取り込みの中で、社会技術学者や批評家は、価値と公理(例えばバイアス)に主に焦点を絞った分析によって、多くの結果の害を辿った。
価値に基づく分析は不可欠ですが、オントロジー(私たちが何を考えているか、あるいは話し合えるか)は、これらのシステムを分析する上で不可欠だが、認識されていない次元である、と私たちは主張します。
オントロジーと実践ベースのエンゲージメントの必要性を示唆し、デザインにおけるオントロジーを考えるための4つの方向性を提供する。
我々は,LLM開発パイプライン全体を通して,これらの方向性を通じて開放される可能性の事例を,プロンプト運動における4つのLLMベースのチャットボットの応答の検証と,LLMベースのエージェントシミュレーションのアーキテクチャ解析という,2つのオントロジ解析によって共有する。
社会技術システムの設計・開発におけるオントロジーの活用の機会と限界を共有して結論付ける。
関連論文リスト
- LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オンロジはドメインの知識とメタデータを表現するために広く使われている。
直接支援できる論理的推論は、学習、近似、予測において非常に限られています。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - A Philosophical Introduction to Language Models - Part II: The Way Forward [0.0]
大規模言語モデル(LLM)の最近の進歩によって提起された新しい哲学的問題について考察する。
我々は特に,LLMの内部表現と計算の性質に関する因果介入手法の証拠を検証し,解釈可能性に関する問題に焦点をあてる。
建築的特徴や学習シナリオが適切に制約されている場合、LLMのようなシステムが人間の認知のモデル化に関係があるかどうかを論じる。
論文 参考訳(メタデータ) (2024-05-06T07:12:45Z) - Machine-assisted quantitizing designs: augmenting humanities and social sciences with artificial intelligence [0.0]
大規模言語モデル(LLM)は、人文科学や社会科学におけるデータ分析をスケールアップする前例のない機会であることが示された。
設計原則を定量化し、変換し、言語学から特徴分析し、人間の専門知識と機械のスケーラビリティを透過的に統合する混合手法を構築します。
このアプローチは、1ダース以上のLDM支援ケーススタディで議論され、9つの多様な言語、複数の規律、タスクをカバーしている。
論文 参考訳(メタデータ) (2023-09-24T14:21:50Z) - Language Model Analysis for Ontology Subsumption Inference [37.00562636991463]
学習前言語モデル(LM)が知識ベース(KB)として機能するかを検討する。
提案するOntoLAMAは,原子概念と複素概念の両方を含む仮定公理から推論に基づく探索タスクとデータセットの集合である。
提案手法は,従来の自然言語推論 (NLI) よりも,仮定推論 (SI) の背景知識が比較的少ないことを示すものである。
コードとデータセットをオープンソースにします。
論文 参考訳(メタデータ) (2023-02-14T00:21:56Z) - Structured Like a Language Model: Analysing AI as an Automated Subject [0.0]
我々は、大規模言語モデルに対する主観性の意図的な予測は、AIの振る舞いを分析できる別のフレームを生み出すことができると論じる。
我々は、最先端の自然言語処理性能を実現するシステムのリリースにおいて、言語モデルに関する短い歴史を辿る。
批判的メディア手法と精神分析理論が組み合わさって、AI駆動型言語システムの強力な新しい能力を把握するための生産的枠組みを提供すると結論付けている。
論文 参考訳(メタデータ) (2022-12-08T21:58:43Z) - Human Factors in Model Interpretability: Industry Practices, Challenges,
and Needs [28.645803845464915]
モデルを計画し、構築し、使用しながら、解釈可能性のためにどのように考え、設計するかを理解するために、業界実践者とのインタビューを行います。
この結果に基づいて、MLモデルを多用する組織内に存在する、解釈可能性の役割、プロセス、目標、戦略を区別する。
本分析から得られた解釈可能性作業の特徴は、モデル解釈可能性はしばしば、異なる役割の人物間の協調と精神モデルの比較を伴っていることを示唆している。
論文 参考訳(メタデータ) (2020-04-23T19:54:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。