論文の概要: Evaluating Perceived Usefulness and Ease of Use of CMMN and DCR
- arxiv url: http://arxiv.org/abs/2103.11218v2
- Date: Tue, 23 Mar 2021 19:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 12:47:48.790408
- Title: Evaluating Perceived Usefulness and Ease of Use of CMMN and DCR
- Title(参考訳): CMMNとDCRの有効性と有用性の評価
- Authors: Amin Jalali
- Abstract要約: 本研究では,プロセス設計者がケースマネジメントモデルと表記法(CMMN)と動的条件応答(DCR)の有用性と使いやすさについて検討する。
この研究は、これらの言語を8週間にわたってマスターレベルの学生に教育し、課題に対するフィードバックを与えることによって行われる。
その結果、十分なトレーニングを受けながら、フィードバックを受け取ることで、参加者の認識がどのように変化するかが示される。
- 参考スコア(独自算出の注目度): 3.3504365823045035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Case Management has been gradually evolving to support Knowledge-intensive
business process management, which resulted in developing different modeling
languages, e.g., Declare, Dynamic Condition Response (DCR), and Case Management
Model and Notation (CMMN). A language will die if users do not accept and use
it in practice - similar to extinct human languages. Thus, it is important to
evaluate how users perceive languages to determine if there is a need for
improvement. Although some studies have investigated how the process designers
perceived Declare and DCR, there is a lack of research on how they perceive
CMMN. Therefore, this study investigates how the process designers perceive the
usefulness and ease of use of CMMN and DCR based on the Technology Acceptance
Model. DCR is included to enable comparing the study result with previous ones.
The study is performed by educating master level students with these languages
over eight weeks by giving feedback on their assignments to reduce perceptions
biases. The students' perceptions are collected through questionnaires before
and after sending feedback on their final practice in the exam. Thus, the
result shows how the perception of participants can change by receiving
feedback - despite being well trained. The reliability of responses is tested
using Cronbach's alpha, and the result indicates that both languages have an
acceptable level for both perceived usefulness and ease of use.
- Abstract(参考訳): ケース管理は徐々に進化し、知識集約型ビジネスプロセス管理をサポートし、宣言、動的条件応答(dcr)、ケース管理モデルと表記法(cmmn)といった異なるモデリング言語を開発してきた。
ユーザが受け入れて使用しなければ、言語は死にます – 絶滅した人間の言語と同じように。
したがって、ユーザーがいかに言語を知覚し、改善の必要性を判断するかを評価することが重要である。
プロセスデザイナがDeclareとDCRをどのように認識しているかを調査する研究もあるが、CMMNをどのように知覚するかは研究されていない。
そこで本研究では,プロセスデザイナがCMMNとDCRの有用性と使いやすさを技術アクセプタンスモデルに基づいて認識する方法について検討した。
DCRは、研究結果を以前のものと比較するために含まれている。
この研究は、これらの言語を8週間にわたってマスターレベルの学生に教育することで行われ、バイアスを減らすために課題に対するフィードバックを与える。
学生の知覚は、試験の最終練習に対するフィードバックの前後のアンケートによって収集される。
結果として、十分に訓練されたにもかかわらず、参加者の知覚がフィードバックを受けてどのように変化するかが示される。
応答の信頼性は cronbach の alpha を用いてテストされ、両言語は有用性と使いやすさの両方において許容できるレベルであることが示された。
関連論文リスト
- Integrating AI for Enhanced Feedback in Translation Revision- A Mixed-Methods Investigation of Student Engagement [0.0]
人工知能(AI)によるフィードバックの適用、特にChatGPTのような言語モデルからのフィードバックは、翻訳教育において検討されている。
本研究は,ChatGPTによる翻訳過程における教師の学生の関与について検討した。
論文 参考訳(メタデータ) (2024-10-11T07:21:29Z) - CM-DQN: A Value-Based Deep Reinforcement Learning Model to Simulate Confirmation Bias [0.0]
本稿では,人間の意思決定過程をシミュレートするために,Deep Reinforcement Learning(CM-DQN)に新たなアルゴリズムを提案する。
我々は,Lunar Lander環境において,確認的,不確認的バイアス,非バイアスを用いて学習効果を観察する。
論文 参考訳(メタデータ) (2024-07-10T08:16:13Z) - Facilitating Human-LLM Collaboration through Factuality Scores and Source Attributions [35.48507905027844]
人間はますます大きな言語モデル(LLM)に依存している
LLMは「幻覚」としても知られる不正確な情報や偽の情報を生成する可能性がある。
論文 参考訳(メタデータ) (2024-05-30T19:23:14Z) - Decompose and Aggregate: A Step-by-Step Interpretable Evaluation Framework [75.81096662788254]
大規模言語モデル(LLM)はスケーラブルで経済的な評価指標である。
これらの評価者がどの程度信頼できるかという問題は、重要な研究課題として浮上している。
本稿では,デコンプリートとアグリゲートを提案し,その評価プロセスを教育実践に基づいて異なる段階に分解する。
論文 参考訳(メタデータ) (2024-05-24T08:12:30Z) - Rethinking the Evaluation of Dialogue Systems: Effects of User Feedback on Crowdworkers and LLMs [57.16442740983528]
アドホック検索では、評価は暗黙のフィードバックを含むユーザーの行動に大きく依存する。
アノテータの会話知覚におけるターン評価におけるユーザフィードバックの役割はほとんど研究されていない。
本稿では,タスク指向対話システム(TDS)の評価が,ターンのフォローアップ発話を通じて提供されるユーザフィードバック,明示的あるいは暗黙的な評価にどのように影響するかに注目した。
論文 参考訳(メタデータ) (2024-04-19T16:45:50Z) - Using Large Language Models to Provide Explanatory Feedback to Human
Tutors [3.2507682694499582]
オンライン授業において,教師にリアルタイムフィードバックを提供するための2つのアプローチを提案する。
このワーク・イン・プログレス(英語版)は、効果的な、あるいは努力に基づく修正フィードバックのためのバイナリ分類においてかなりの精度を示す。
より具体的には、大言語モデルに精通した名前付きエンティティ認識を用いた説明的フィードバックを提供するための拡張されたアプローチについて紹介する。
論文 参考訳(メタデータ) (2023-06-27T14:19:12Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z) - An ASR-Based Tutor for Learning to Read: How to Optimize Feedback to
First Graders [18.849741353784328]
前報では,ASRをベースとしたオランダ語読解指導アプリケーションについて紹介し,初等生の読み方に対する即時フィードバックについて検討した。
既存のコーパス (JASMIN) から得られた子どもの音声を用いて, 2つの新しいASRシステムの開発を行い, 前報と比較した。
ASRシステムの精度は、読み出しタスクや単語の種類によって異なる。
論文 参考訳(メタデータ) (2023-06-07T06:58:38Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z) - Anticipating the Unseen Discrepancy for Vision and Language Navigation [63.399180481818405]
視覚言語ナビゲーションでは、エージェントは特定のターゲットに到達するために自然言語命令に従う必要がある。
目に見える環境と目に見えない環境の間に大きな違いがあるため、エージェントがうまく一般化することは困難である。
本研究では,テストタイムの視覚的整合性を促進することによって,未知の環境への一般化を学習する,未知の離散性予測ビジョンと言語ナビゲーション(DAVIS)を提案する。
論文 参考訳(メタデータ) (2022-09-10T19:04:40Z) - oLMpics -- On what Language Model Pre-training Captures [84.60594612120173]
本研究では,比較,協調,合成などの操作を必要とする8つの推論タスクを提案する。
基本的な課題は、タスク上でのLMのパフォーマンスが、事前訓練された表現やタスクデータの微調整のプロセスに起因すべきかどうかを理解することである。
論文 参考訳(メタデータ) (2019-12-31T12:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。