論文の概要: Curating Model Problems for Software Designing
- arxiv url: http://arxiv.org/abs/2503.06400v1
- Date: Sun, 09 Mar 2025 02:41:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:51:11.453609
- Title: Curating Model Problems for Software Designing
- Title(参考訳): ソフトウェア設計におけるモデル問題の計算
- Authors: Mary Shaw, Marian Petre,
- Abstract要約: 多くの分野は、教育の標準的な例を使い、研究成果を共有し、比較する。
複数の視点から学ぶのに十分豊富な例は、しばしばモデル問題と呼ばれる。
本稿では,既存のモデル問題記述を改善し,新たなモデル記述を開始する2025の設計活動を提案する。
- 参考スコア(独自算出の注目度): 2.2674718030662713
- License:
- Abstract: Many disciplines use standard examples for education and to share and compare research results. The examples are rich enough to study from multiple points of view; they are often called model problems. Software design lacks such a community resource. We propose an activity for Designing 2025 in which participants improve some existing model problem descriptions and initiate new ones -- with a focus on use in software design education, plus potential utility in research.
- Abstract(参考訳): 多くの分野は、教育の標準的な例を使い、研究成果を共有し、比較する。
これらの例は、複数の視点から研究できるほど豊かで、しばしばモデル問題と呼ばれる。
ソフトウェア設計にはそのようなコミュニティリソースが欠けている。
本稿では,既存のモデル問題記述を改善するとともに,ソフトウェア設計教育や研究における潜在的有用性に焦点をあてて,新たなモデル記述を創出する2025設計活動を提案する。
関連論文リスト
- Exploring Actions, Interactions and Challenges in Software Modelling Tasks: An Empirical Investigation with Students [2.358662654438374]
学生のモデリング知識とモデリング行動を探究することを目的としている。
また、特定のモデリングツールのモデリングタスクを解決しつつ、学生の課題についても検討したい。
論文 参考訳(メタデータ) (2024-09-20T17:03:54Z) - A Survey on Model MoErging: Recycling and Routing Among Specialized Experts for Collaborative Learning [136.89318317245855]
MoErgingは、専門家のモデルをリサイクルして、パフォーマンスや一般化を改善した集約システムを構築することを目的としている。
MoErgingメソッドの重要なコンポーネントは、特定の入力やアプリケーションに使用する専門家モデルを決定するルータの作成である。
このサーベイには、キーデザインの選択をカタログ化し、各手法に適した適用方法を明確にするための新しい分類が含まれている。
論文 参考訳(メタデータ) (2024-08-13T17:49:00Z) - Towards Automatic Support of Software Model Evolution with Large
Language~Models [6.872484164111954]
本稿では,大規模言語モデルを用いて,ソフトウェアシステムのモデル履歴における編集パターンの発見を行う手法を提案する。
大規模な言語モデルは、ソフトウェアモデルの進化をサポートするための有望な技術であることがわかった。
論文 参考訳(メタデータ) (2023-12-19T18:38:01Z) - Computing Education in the Era of Generative AI [6.058132379003054]
人工知能の最近の進歩により、自然言語の問題記述からソースコードを生成するコード生成モデルが生まれている。
我々は、そのようなモデルがコンピュータ教育者にもたらす課題と機会について論じる。
このようなモデルが教育的実践に与える影響を、執筆当時の最新の進歩の文脈で検討する。
論文 参考訳(メタデータ) (2023-06-05T05:43:35Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - GLUECons: A Generic Benchmark for Learning Under Constraints [102.78051169725455]
本研究では,自然言語処理とコンピュータビジョンの分野における9つのタスクの集合であるベンチマークを作成する。
外部知識を制約としてモデル化し、各タスクの制約のソースを特定し、これらの制約を使用するさまざまなモデルを実装します。
論文 参考訳(メタデータ) (2023-02-16T16:45:36Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z) - Solving Quantitative Reasoning Problems with Language Models [53.53969870599973]
我々は、一般的な自然言語データに基づいて事前訓練された大規模言語モデルであるMinervaを紹介し、さらに技術的な内容について訓練する。
このモデルは、外部ツールを使わずに、技術的ベンチマークで最先端のパフォーマンスを達成する。
我々はまた、物理学、生物学、化学、経済学、その他の科学における200以上の学部レベルの問題に対して、我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-06-29T18:54:49Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z) - Machine Learning Model Development from a Software Engineering
Perspective: A Systematic Literature Review [0.0]
データサイエンティストは、しばしば、業界やアカデミーの様々な問題を解決するために機械学習モデルを開発した。
本稿では,ソフトウェア工学の観点からMLモデルの開発において生じる課題と実践について考察する。
論文 参考訳(メタデータ) (2021-02-15T14:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。