論文の概要: Traceability and Reuse Mechanisms, the most important Properties of
Model Transformation Languages
- arxiv url: http://arxiv.org/abs/2305.06764v1
- Date: Thu, 11 May 2023 12:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 09:05:05.894295
- Title: Traceability and Reuse Mechanisms, the most important Properties of
Model Transformation Languages
- Title(参考訳): モデル変換言語の最も重要な特性であるトレーサビリティと再利用機構
- Authors: Stefan H\"oppner, Matthias Tichy
- Abstract要約: 本研究の目的は,調査結果を定量的に評価し,異なる要因による影響を確認し,否定することである。
その結果,トラシングと再利用のメカニズムは全体として最も重要であることが明らかとなった。
- 参考スコア(独自算出の注目度): 1.4685355149711299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dedicated model transformation languages are claimed to provide many benefits
over the use of general purpose languages for developing model transformations.
However, the actual advantages associated with the use of MTLs are poorly
understood empirically. There is little knowledge and empirical assessment
about what advantages and disadvantages hold and where they originate from. In
a prior interview study, we elicited expert opinions on what advantages result
from what factors and a number of factors that moderate the influence. We aim
to quantitatively asses the interview results to confirm or reject the effects
posed by different factors. We intend to gain insights into how valuable
different factors are so that future studies can draw on these data for
designing targeted and relevant studies. We gather data on the factors and
quality attributes using an online survey. To analyse the data, we use
universal structure modelling based on a structure model. We use significance
values and path coefficients produced bz USM for each hypothesised
interdependence to confirm or reject correlation and to weigh the strength of
influence present. We analyzed 113 responses. The results show that the Tracing
and Reuse Mechanisms are most important overall. Though the observed effects
were generally 10 times lower than anticipated. Additionally, we found that a
more nuanced view of moderation effects is warranted. Their moderating
influence differed significantly between the different influences, with the
strongest effects being 1000 times higher than the weakest. The empirical
assessment of MTLs is a complex topic that cannot be solved by looking at a
single stand-alone factor. Our results provide clear indication that evaluation
should consider transformations of different sizes and use-cases. Language
development should focus on providing transformation specific reuse mechanisms .
- Abstract(参考訳): 専用モデル変換言語は、モデル変換を開発するための汎用言語の使用に多くの利点があると主張している。
しかし、MTLの使用に伴う実際の利点は、実証的にはあまり理解されていない。
アドバンテージとデメリットとは何か、どこから生まれたのかに関する知識や実証的な評価はほとんどありません。
事前のインタビュー研究において、どのような要因と影響を緩める要因から得られる利点について専門家の意見を導き出した。
インタビューの結果を定量的に評価し,異なる要因が与えた影響を確認し,否定する。
我々は、将来の研究がこれらのデータに基づいてターゲットと関連する研究を設計できるように、さまざまな要因がいかに価値があるかについての洞察を得るつもりです。
オンライン調査を用いて,要因と品質特性のデータを収集する。
データを解析するために、構造モデルに基づく普遍的な構造モデリングを用いる。
各仮説の相互依存に対してbzusmが生成する重要度値と経路係数を用いて相関を確認・拒否し,影響の強さを推定する。
113の回答を分析した。
その結果,追跡機構と再利用機構が全体として最も重要であることがわかった。
しかし、観察された効果は一般的に予想より10倍も低かった。
さらに、モデレーション効果のより微妙な見方が保証されている。
そのモデレーション効果は異なる影響で大きく異なり、最も強い効果は最も弱い効果の1000倍である。
MTLの実証的な評価は、単一のスタンドアローン因子を見るだけでは解決できない複雑なトピックである。
評価結果は,異なるサイズとユースケースの変換を考慮すべきであることを示す。
言語開発は、トランスフォーメーション固有の再利用メカニズムの提供に焦点を当てるべきである。
関連論文リスト
- Do Influence Functions Work on Large Language Models? [10.463762448166714]
影響関数は、個々のトレーニングデータポイントがモデルの予測に与える影響を定量化することを目的としている。
我々は,複数のタスクにまたがる影響関数を評価し,ほとんどの設定において不整合なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-09-30T06:50:18Z) - "Why" Has the Least Side Effect on Model Editing [25.67779910446609]
本稿では,モデル編集質問の分類による重要な因子探索型について検討する。
その結果, 性能劣化の程度は, 質問の種類によって大きく異なることがわかった。
また,バッチサイズが副作用に与える影響についても検討し,バッチサイズの増加が性能低下を軽減することを発見した。
論文 参考訳(メタデータ) (2024-09-27T12:05:12Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - A Notion of Feature Importance by Decorrelation and Detection of Trends
by Random Forest Regression [1.675857332621569]
本稿では,よく研究されたGram-Schmidt decorrelation法に基づく特徴重要度の概念を導入する。
本研究では,ランダムな森林回帰を用いてデータ中の傾向を推定する2つの推定手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T11:01:49Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - On the Importance of Data Size in Probing Fine-tuned Models [18.69409646532038]
符号化された言語知識の程度は、微調整サンプルの数に依存することを示す。
我々は、微調整データサイズがモデルの言語知識に対する変更の回復可能性に影響を及ぼす一連の実験を通して示す。
論文 参考訳(メタデータ) (2022-03-17T21:45:17Z) - On Shapley Credit Allocation for Interpretability [1.52292571922932]
学習モデルの判断を解釈する際に適切な質問を行うことの重要性を強調する。
本稿では,Shapley symmetrizationの特徴関数として,解釈の異なる性質と異なる尺度を織り込むことによって特徴関連性を定量化する。
論文 参考訳(メタデータ) (2020-12-10T08:25:32Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。