論文の概要: Connecting the Dots of Knowledge in Agile Software Development
- arxiv url: http://arxiv.org/abs/2306.05742v1
- Date: Fri, 9 Jun 2023 08:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 04:04:02.820892
- Title: Connecting the Dots of Knowledge in Agile Software Development
- Title(参考訳): アジャイルソフトウェア開発における知識の点をつなぐ
- Authors: Raquel Ouriques, Tony Gorschek, Daniel Mendez, Fabian Fagerholm
- Abstract要約: 本稿では、経済的価値を生み出す大きな可能性から、知識を資源として管理することの重要性について論じる。
我々は,知識資源の種類,その管理に関わる課題,有用性を最大化する潜在的なソリューションについて詳述する。
- 参考スコア(独自算出の注目度): 2.233835326994069
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This article discusses the importance of managing knowledge as a resource due
to its great potential to create economic value. We detail the types of
knowledge resources, the challenges associated with their management, and
potential solutions to maximise their utility. Our contribution is based on
empirical studies performed in an industry context.
- Abstract(参考訳): 本稿では、経済的価値を生み出す大きな可能性から、知識を資源として管理することの重要性について論じる。
我々は,知識資源の種類,管理に関わる課題,有用性を最大化する潜在的なソリューションについて詳述する。
私たちの貢献は、業界状況における実証的研究に基づいている。
関連論文リスト
- Reliability Across Parametric and External Knowledge: Understanding Knowledge Handling in LLMs [11.860265967829884]
大規模言語モデル(LLM)はパラメトリックと外部の知識を活用することで問題解決能力を高める。
本稿では,パラメトリック知識の存在と外部知識の情報性という2つの重要な側面に基づいて,知識処理を解析するための枠組みを提案する。
知識処理シナリオに基づいて構築されたデータによるトレーニングは、知識の統合と活用におけるLLMの信頼性を向上させることを実証する。
論文 参考訳(メタデータ) (2025-02-19T11:49:23Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Towards Knowledge-Grounded Natural Language Understanding and Generation [1.450405446885067]
この論文は、トランスフォーマーモデルによる自然言語の理解と生成が、モデルに知識表現を組み込むことの利点について考察する。
この論文では、関連性のある、最新のエンティティの知識を取り入れることで、偽ニュース検出の恩恵を受ける。
パラメトリックな知識や蒸留された知識といった他の一般的な知識は、多言語および多言語的な知識集約的なタスクを強化することが確立されている。
論文 参考訳(メタデータ) (2024-03-22T17:32:43Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Materialized Knowledge Bases from Commonsense Transformers [8.678138390075077]
この方法で生成されたコモンセンス知識の実体化されたリソースは公開されていない。
本稿では, このギャップを埋め, 物質化資源を用いて, 精度とリコールの観点から, このアプローチの可能性の詳細な分析を行う。
我々は、一般的な問題を特定し、実体化されたリソースによって実現されるユースケースの概要を述べる。
論文 参考訳(メタデータ) (2021-12-29T20:22:05Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - Dimensions of Commonsense Knowledge [60.49243784752026]
我々は,その関係に特に焦点をあてて,広く普及しているコモンセンスソースを調査した。
我々はこれらの関係を13の知識次元に集約し、それぞれがソースにあるより具体的な関係を抽象化する。
論文 参考訳(メタデータ) (2021-01-12T17:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。