論文の概要: Ontologies in Design: How Imagining a Tree Reveals Possibilites and Assumptions in Large Language Models
- arxiv url: http://arxiv.org/abs/2504.03029v1
- Date: Thu, 03 Apr 2025 21:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 21:52:13.711719
- Title: Ontologies in Design: How Imagining a Tree Reveals Possibilites and Assumptions in Large Language Models
- Title(参考訳): デザインのオントロジー:大規模言語モデルにおける木の可能性と仮定のイマジネーション
- Authors: Nava Haghighi, Sunny Yu, James Landay, Daniela Rosner,
- Abstract要約: 価値に基づく分析は重要であるが、これらのシステムを分析する上ではあまり認識されていない。
多元主義との実践に基づく関わりの必要性を示唆し、設計の方向性を検討するための4つの方向性を提供する。
- 参考スコア(独自算出の注目度): 0.4563238570902448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amid the recent uptake of Generative AI, sociotechnical scholars and critics have traced a multitude of resulting harms, with analyses largely focused on values and axiology (e.g., bias). While value-based analyses are crucial, we argue that ontologies -- concerning what we allow ourselves to think or talk about -- is a vital but under-recognized dimension in analyzing these systems. Proposing a need for a practice-based engagement with ontologies, we offer four orientations for considering ontologies in design: pluralism, groundedness, liveliness, and enactment. We share examples of potentialities that are opened up through these orientations across the entire LLM development pipeline by conducting two ontological analyses: examining the responses of four LLM-based chatbots in a prompting exercise, and analyzing the architecture of an LLM-based agent simulation. We conclude by sharing opportunities and limitations of working with ontologies in the design and development of sociotechnical systems.
- Abstract(参考訳): 最近のジェネレーティブAIの取り込みの中で、社会技術学者や批評家は、価値と公理(例えばバイアス)に主に焦点を絞った分析によって、多くの結果の害を辿った。
価値に基づく分析は不可欠ですが、オントロジー(私たちが何を考えているか、あるいは話し合えるか)は、これらのシステムを分析する上で不可欠だが、認識されていない次元である、と私たちは主張します。
オントロジーと実践ベースのエンゲージメントの必要性を示唆し、デザインにおけるオントロジーを考えるための4つの方向性を提供する。
我々は,LLM開発パイプライン全体を通して,これらの方向性を通じて開放される可能性の事例を,プロンプト運動における4つのLLMベースのチャットボットの応答の検証と,LLMベースのエージェントシミュレーションのアーキテクチャ解析という,2つのオントロジ解析によって共有する。
社会技術システムの設計・開発におけるオントロジーの活用の機会と限界を共有して結論付ける。
関連論文リスト
- Assessing the Capability of Large Language Models for Domain-Specific Ontology Generation [1.099532646524593]
大規模言語モデル(LLM)は、オントロジー工学に大きな可能性を示している。
本稿では,2つの最先端LCM,DeepSeek と o1-preview の一般化可能性について,一連の有能な質問から考察する。
その結果,全ての領域で実験性能が著しく整合していることが判明した。
論文 参考訳(メタデータ) (2025-04-24T09:47:14Z) - Embodied-R: Collaborative Framework for Activating Embodied Spatial Reasoning in Foundation Models via Reinforcement Learning [58.86928947970342]
Embodied-Rは、知覚のための大規模視覚言語モデルと推論のための小規模言語モデルを組み合わせたフレームワークである。
わずか5kのエボダイドビデオサンプルのトレーニングの後、Embodied-Rと3B LMは最先端のマルチモーダル推論モデルと一致した。
Embodied-Rは、体系的分析や文脈統合のような創発的な思考パターンも示している。
論文 参考訳(メタデータ) (2025-04-17T06:16:11Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - A Philosophical Introduction to Language Models - Part II: The Way Forward [0.0]
大規模言語モデル(LLM)の最近の進歩によって提起された新しい哲学的問題について考察する。
我々は特に,LLMの内部表現と計算の性質に関する因果介入手法の証拠を検証し,解釈可能性に関する問題に焦点をあてる。
建築的特徴や学習シナリオが適切に制約されている場合、LLMのようなシステムが人間の認知のモデル化に関係があるかどうかを論じる。
論文 参考訳(メタデータ) (2024-05-06T07:12:45Z) - Demystifying Chains, Trees, and Graphs of Thoughts [20.980650840083385]
利用構造の基本クラスを特定することに集中し、これらの構造表現を分析する。
本研究は,提案した分類法を用いて既存のプロンプト方式と比較し,特定の設計選択が性能とコストの異なるパターンにどのように寄与するかを論じる。
論文 参考訳(メタデータ) (2024-01-25T16:34:00Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Machine-assisted quantitizing designs: augmenting humanities and social sciences with artificial intelligence [0.0]
大規模言語モデル(LLM)は、人文科学や社会科学におけるデータ分析をスケールアップする前例のない機会であることが示された。
設計原則を定量化し、変換し、言語学から特徴分析し、人間の専門知識と機械のスケーラビリティを透過的に統合する混合手法を構築します。
このアプローチは、1ダース以上のLDM支援ケーススタディで議論され、9つの多様な言語、複数の規律、タスクをカバーしている。
論文 参考訳(メタデータ) (2023-09-24T14:21:50Z) - Language Model Analysis for Ontology Subsumption Inference [37.00562636991463]
学習前言語モデル(LM)が知識ベース(KB)として機能するかを検討する。
提案するOntoLAMAは,原子概念と複素概念の両方を含む仮定公理から推論に基づく探索タスクとデータセットの集合である。
提案手法は,従来の自然言語推論 (NLI) よりも,仮定推論 (SI) の背景知識が比較的少ないことを示すものである。
コードとデータセットをオープンソースにします。
論文 参考訳(メタデータ) (2023-02-14T00:21:56Z) - Human Factors in Model Interpretability: Industry Practices, Challenges,
and Needs [28.645803845464915]
モデルを計画し、構築し、使用しながら、解釈可能性のためにどのように考え、設計するかを理解するために、業界実践者とのインタビューを行います。
この結果に基づいて、MLモデルを多用する組織内に存在する、解釈可能性の役割、プロセス、目標、戦略を区別する。
本分析から得られた解釈可能性作業の特徴は、モデル解釈可能性はしばしば、異なる役割の人物間の協調と精神モデルの比較を伴っていることを示唆している。
論文 参考訳(メタデータ) (2020-04-23T19:54:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。