論文の概要: On the impact of semantic transparency on understanding and reviewing social goal models
- arxiv url: http://arxiv.org/abs/2511.06110v1
- Date: Sat, 08 Nov 2025 19:24:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.762461
- Title: On the impact of semantic transparency on understanding and reviewing social goal models
- Title(参考訳): 意味的透明性が社会的目標モデルの理解とレビューに及ぼす影響について
- Authors: Mafalda Santos, Catarina Gralha, Miguel Goulão, João Araújo, Ana Moreira,
- Abstract要約: 意味的透明性がi*モデルの理解とレビューに与える影響を評価する。
57名の初心者にi*モデルの理解とレビューを依頼した。
代替構文による精度向上や速度向上の証拠は見つからなかった。
- 参考スコア(独自算出の注目度): 1.290443040184784
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Context: i* is one of the most influential languages in the Requirements Engineering research community. Perhaps due to its complexity and low adoption in industry, it became a natural candidate for studies aiming at improving its concrete syntax and the stakeholders' ability to correctly interpret i* models. Objectives: We evaluate the impact of semantic transparency on understanding and reviewing i* models, in the presence of a language key. Methods: We performed a quasi-experiment comparing the standard i* concrete syntax with an alternative that has an increased semantic transparency. We asked 57 novice participants to perform understanding and reviewing tasks on i* models, and measured their accuracy, speed and ease, using metrics of task success, time and effort, collected with eye-tracking and participants' feedback. Results: We found no evidence of improved accuracy or speed attributable to the alternative concrete syntax. Although participants' perceived ease was similar, they devoted significantly less visual effort to the model and the provided language key, when using the alternative concrete syntax. Conclusions: The context provided by the model and language key may mitigate the i* symbol recognition deficit reported in previous works. However, the alternative concrete syntax required a significantly lower visual effort.
- Abstract(参考訳): コンテキスト: i*はRequireements Engineering Researchコミュニティでもっとも影響力のある言語のひとつです。
おそらく、その複雑さと業界における採用率の低さにより、具体的な構文の改善とi*モデルを正しく解釈するステークホルダーの能力向上を目的とした研究の自然な候補となった。
目的: 言語キーの存在下で, 意味的透明性がi*モデルの理解とレビューに与える影響を評価する。
メソッド: 標準的なi*具体的な構文とセマンティックな透明性を高めた代替手段を比較した準実験を行った。
我々は57人の初級参加者にi*モデルのタスクの理解とレビューを依頼し、その正確さ、スピード、容易さ、タスク成功の指標、時間と労力、アイトラッキングと参加者のフィードバックを用いて測定した。
結果: 代替構文に起因した精度向上や速度向上の証拠は見つからなかった。
参加者の容易さは似ているが、代替の具体的な構文を使用する場合、モデルと提供された言語キーに対する視覚的な労力は大幅に削減された。
結論: モデルと言語キーが提供するコンテキストは、以前の研究で報告されたi*記号認識の欠陥を軽減する可能性がある。
しかし、代替の具体的な構文では、視覚的な労力が大幅に削減された。
関連論文リスト
- Context Matters: Learning Global Semantics via Object-Centric Representation [8.195437248815802]
ビジョンモデルは、コンテキスト内学習において同等の進歩を見せていない。
このギャップは、現在の視覚変換器(ViT)トレーニングスキームにおける意味的および文脈的ガイダンスの欠如に起因する可能性がある、と我々は主張する。
対象」を「単語」の視覚的等価性として直接モデル化し、そのモデルに視覚要素間のグローバルな文脈と意味を学習させることを提案する。
論文 参考訳(メタデータ) (2025-10-07T08:33:36Z) - Text Embeddings Should Capture Implicit Semantics, Not Just Surface Meaning [17.00358234728804]
テキスト埋め込み研究コミュニティは、表面的な意味を超えて、暗黙のセマンティクスを中心的なモデリング目標として受け入れるべきである、と我々は主張する。
現在の埋め込みモデルは、一般的にそのような深度に欠けるデータに基づいて訓練され、表面的な意味の獲得に報いるベンチマークで評価される。
我々のパイロット研究は、最先端のモデルでさえ、暗黙のセマンティックスタスクにおける単純化されたベースラインよりも、わずかに優れたパフォーマンスしか発揮していないことを示す、このギャップを強調している。
論文 参考訳(メタデータ) (2025-06-10T02:11:42Z) - Syntax and Semantics Meet in the "Middle": Probing the Syntax-Semantics
Interface of LMs Through Agentivity [68.8204255655161]
このような相互作用を探索するためのケーススタディとして,作用性のセマンティックな概念を提示する。
これは、LMが言語アノテーション、理論テスト、発見のためのより有用なツールとして役立つ可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T16:24:01Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Towards explainable evaluation of language models on the semantic
similarity of visual concepts [0.0]
本稿では,視覚語彙の意味的類似性に焦点をあて,ハイパフォーマンスな事前学習言語モデルの振る舞いを考察する。
まず、検索したインスタンスの概念的品質を理解するために必要となる、説明可能な評価指標の必要性に対処する。
第二に、健全なクエリセマンティクスに対する敵対的な介入は、不透明なメトリクスの脆弱性を露呈し、学習された言語表現におけるパターンを強調します。
論文 参考訳(メタデータ) (2022-09-08T11:40:57Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Introducing Syntactic Structures into Target Opinion Word Extraction
with Deep Learning [89.64620296557177]
目的語抽出のためのディープラーニングモデルに文の構文構造を組み込むことを提案する。
また,ディープラーニングモデルの性能向上のために,新たな正規化手法を導入する。
提案モデルは,4つのベンチマークデータセット上での最先端性能を広範囲に解析し,達成する。
論文 参考訳(メタデータ) (2020-10-26T07:13:17Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。