論文の概要: Supporting Assessment of Novelty of Design Problems Using Concept of Problem SAPPhIRE
- arxiv url: http://arxiv.org/abs/2410.18629v1
- Date: Thu, 24 Oct 2024 10:39:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 16:44:15.022226
- Title: Supporting Assessment of Novelty of Design Problems Using Concept of Problem SAPPhIRE
- Title(参考訳): 問題SAPPhIREの概念を用いた設計問題の新規性評価支援
- Authors: Sanjay Singh, Amaresh Chakrabarti,
- Abstract要約: 問題の新規性は、参照問題データベースにおける問題から最小距離として測定される。
ステークホルダーが収集したアーティファクトに関連する現在の問題のセットは、過去の一連の問題と比較された。
このアプローチは、現在のあらゆる問題の集合の斬新さの度合いをよりよく理解することを目的としている。
- 参考スコア(独自算出の注目度): 0.5371337604556311
- License:
- Abstract: This paper proposes a framework for assessing the novelty of design problems using the SAPPhIRE model of causality. The novelty of a problem is measured as its minimum distance from the problems in a reference problem database. The distance is calculated by comparing the current problem and each reference past problem at the various levels of abstraction in the SAPPhIRE ontology. The basis for comparison is textual similarity. To demonstrate the applicability of the proposed framework, The current set of problems associated with an artifact, as collected from its stakeholders, were compared with the past set of problems, as collected from patents and other web sources, to assess the novelty of the current set. This approach is aimed at providing a better understanding of the degree of novelty of any given set of current problems by comparing them to similar problems available from historical records. Since manual assessment, the current mode of such assessments as reported in the literature, is a tedious process, to reduce time complexity and to afford better applicability for larger sets of problem statements, an automated assessment is proposed and used in this paper.
- Abstract(参考訳): 本稿では, 因果関係のSAPPhIREモデルを用いて, 設計問題の新規性を評価する枠組みを提案する。
問題の新規性は、参照問題データベースにおける問題から最小距離として測定される。
SAPPhIREオントロジーの様々な抽象化レベルにおいて、現在の問題と各参照過去の問題を比較して、距離を算出する。
比較の基礎はテキストの類似性である。
提案フレームワークの適用性を実証するために, ステークホルダーが収集したアーティファクトに関連する問題の集合を, 特許やその他のWebソースから収集した過去の問題集合と比較し, 現行の集合の新規性を評価する。
このアプローチは、過去の記録から得られる同様の問題と比較することにより、現在の問題の集合の斬新さの程度をよりよく理解することを目的としている。
論文で報告されているような手作業による評価は,時間的複雑さを低減し,より大きな問題文の集合に適用性を高めるための面倒なプロセスであるため,本論文では自動評価を提案する。
関連論文リスト
- Context Matters: An Empirical Study of the Impact of Contextual Information in Temporal Question Answering Systems [7.393290178125003]
本稿では,様々な文脈で学習した時間的質問応答システムのロバスト性について実験的に検討する。
これらのコンテキストを混合したトレーニングにより、モデルの堅牢性と精度が向上することを示す。
我々は、コンテキストリッチなTQAデータセットであるContextAQAとContextTQEを導入し、堅牢なTQAモデルをトレーニングするための包括的な評価とガイドラインを提供する。
論文 参考訳(メタデータ) (2024-06-27T21:31:30Z) - Robustness Assessment of Mathematical Reasoning in the Presence of Missing and Contradictory Conditions [48.251724997889184]
我々は、ミス・コントラクタリー条件(PMC)に関する問題というベンチマークを開発する。
本稿では,これらのシナリオにおける数ショットプロンプト手法の性能を評価するための2つの新しい指標を提案する。
SMT-LIB Prompting (SLP) と呼ばれる,SMT-LIB言語を用いて直接解決する代わりに,この問題をモデル化する手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T16:24:12Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Information Association for Language Model Updating by Mitigating
LM-Logical Discrepancy [68.31760483418901]
大規模言語モデル(LLM)は、時代遅れの事前学習データのために現在の情報を提供するのに苦労する。
知識編集や連続的な微調整など,従来のLCMの更新方法は,新たな情報の一般化に重大な欠点がある。
これらの欠点の中核となる課題は,言語モデリングの確率と論理的確率の差を特徴とするLM論理的相違である。
論文 参考訳(メタデータ) (2023-05-29T19:48:37Z) - Models and algorithms for simple disjunctive temporal problems [0.8793721044482611]
イベントが任意に大量のリリースと予定日を持つ場合に焦点を当てる。
本稿では,制約プログラミングと線形プログラミングを用いた3つの数学的モデルを提案する。
論文から得られたアルゴリズムを実装し,簡単な時相問題を解くための手法の比較実験を行った。
論文 参考訳(メタデータ) (2023-02-06T09:40:24Z) - Shortcomings of Question Answering Based Factuality Frameworks for Error
Localization [51.01957350348377]
質問応答(QA)に基づく事実性指標は、生成した要約の誤り範囲を正しく識別できないことを示す。
このようなローカライゼーションが不十分な理由として,QGモジュールが生成した質問は,非実数的な要約から誤りを継承することが多く,さらに下流モジュールに伝播する。
本実験は,より強力なQAモデルとQGモデルでのみ修正できないQAフレームワークを用いた局所化に関する根本的な問題が存在することを確定的に示す。
論文 参考訳(メタデータ) (2022-10-13T05:23:38Z) - Improving Long Tailed Document-Level Relation Extraction via Easy
Relation Augmentation and Contrastive Learning [66.83982926437547]
我々は,DocREが現実のシナリオにおいて,長期分布問題の緩和に不可欠であると主張する。
長期分布問題に動機付けられ,DocREを改善するための簡易関係拡張法(ERA)を提案する。
論文 参考訳(メタデータ) (2022-05-21T06:15:11Z) - Provable Reinforcement Learning with a Short-Term Memory [68.00677878812908]
我々はPMDPsの新しいサブクラスについて研究し、その潜在状態は、最近の短い長さ$m$の履歴によって復号化することができる。
特に、リッチ・オブザーブレーション・セッティングにおいて、指数関数的にスケールするサンプル複雑性を持つ新しい「モーメントマッチング」アプローチを用いて、新しいアルゴリズムを開発する。
以上の結果から,これらの環境下での強化学習には短期記憶が十分であることが示唆された。
論文 参考訳(メタデータ) (2022-02-08T16:39:57Z) - A Complementarity Analysis of the COCO Benchmark Problems and
Artificially Generated Problems [0.0]
本稿では,このような単目的連続問題生成手法をCOCOベンチマーク問題セットと比較検討する。
このような表現により、可視化と相関解析技術を適用して、問題間の関係をさらに探求できることを示す。
論文 参考訳(メタデータ) (2021-04-27T09:18:43Z) - Recurrent Neural-Linear Posterior Sampling for Nonstationary Contextual
Bandits [9.877980800275507]
本稿では,エージェントと環境間のインタラクションの生履歴のみに基づいて,意思決定の関連状況を表現する手法を提案する。
このアプローチは、リカレントニューラルネットワークによって抽出された特徴と、後続サンプリングに基づく文脈線形帯域アルゴリズムの組み合わせに依存する。
論文 参考訳(メタデータ) (2020-07-09T12:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。