論文の概要: LitmusKt: Concurrency Stress Testing for Kotlin
- arxiv url: http://arxiv.org/abs/2501.07472v1
- Date: Mon, 13 Jan 2025 16:40:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:26:20.510880
- Title: LitmusKt: Concurrency Stress Testing for Kotlin
- Title(参考訳): LitmusKt: Kotlinの並行ストレステスト
- Authors: Denis Lochmelis, Evgenii Moiseenko, Yaroslav Golubev, Anton Podkopaev,
- Abstract要約: LitmusKt - Kotlinで並列プログラムをテストする最初のツールです。
このツールの斬新さは、Kotlinがマルチプラットフォーム言語であるという事実にも関係している。
LitmusKtを使用して、Kotlinコンパイラに新たなバグを発見しました。
- 参考スコア(独自算出の注目度): 0.8312192184427764
- License:
- Abstract: We present LitmusKt - the first tool for litmus testing concurrent programs in Kotlin. The tool's novelty also lies in the fact that Kotlin is a multiplatform language, i.e., it compiles into multiple platforms, which means that the concurrency has to be tested on several of them. Our tool allows writing litmus tests in a single custom DSL, and these tests are then run in Kotlin/Native and Kotlin/JVM, two main platforms for concurrent programming in Kotlin. Using LitmusKt, we discovered novel bugs in the Kotlin compiler, which we then fixed and they are no longer present. Moreover, LitmusKt was integrated into the CI pipeline for Kotlin. We believe that our tool is valuable for further studying concurrency in Kotlin and other multiplatform languages, as well as for further developing the Kotlin memory model. LitmusKt is openly available on GitHub: https://github.com/Jetbrains-Research/litmuskt. The demonstration video is available on YouTube: https://youtu.be/gXI0aYJDnRw.
- Abstract(参考訳): LitmusKt - Kotlinで並列プログラムをテストする最初のツールである。
ツールの斬新さは、Kotlinがマルチプラットフォーム言語である、つまり、複数のプラットフォームにコンパイルされるという事実にも関係している。
私たちのツールは、単一のカスタムDSLでリトマステストを書くことができ、これらのテストはKotlin/NativeとKotlin/JVMで実行されます。
LitmusKtを使用して、Kotlinコンパイラに新たなバグを発見しました。
さらに、LitmusKtはKotlinのCIパイプラインに統合された。
当社のツールは、Kotlinや他のマルチプラットフォーム言語での並行処理のさらなる研究や、Kotlinメモリモデルの開発に有用であると考えています。
LitmusKtはGitHubで公開されている。 https://github.com/Jetbrains-Research/litmuskt。
デモビデオはYouTubeで公開されている。
関連論文リスト
- Kotlin's Type System is (Also) Unsound [0.19116784879310028]
音型システムの型チェッカーは、型エラー毎に警告を発することが期待されている。
2016年、Amin氏とTate氏は、JavaとScalaという2つの主要な産業言語に対して、最初の不健全な証明を提示した。
我々は、これまで未知の言語機能の組み合わせに依存していたKotlinの不健全性証明を提示する。
論文 参考訳(メタデータ) (2024-08-20T12:54:12Z) - KGym: A Platform and Dataset to Benchmark Large Language Models on Linux Kernel Crash Resolution [59.20933707301566]
大規模言語モデル(LLM)は、ますます現実的なソフトウェア工学(SE)タスクにおいて一貫して改善されている。
現実世界のソフトウェアスタックでは、Linuxカーネルのような基本的なシステムソフトウェアの開発にSEの取り組みが費やされています。
このような大規模システムレベルのソフトウェアを開発する際にMLモデルが有用かどうかを評価するため、kGymとkBenchを紹介する。
論文 参考訳(メタデータ) (2024-07-02T21:44:22Z) - Kotlin ML Pack: Technical Report [5.691600667043724]
我々は、Kotlinコードの3つの新しいデータセット、KStack、KStack-clean、KExercisesを提示します。
また、人間の専門家がKotlinに書き直したHumanEvalベンチマークのバージョンも提示します。
論文 参考訳(メタデータ) (2024-05-29T16:33:50Z) - Cross-Language Dependencies: An Empirical Study of Kotlin-Java [1.5680371708311132]
Googleが2017年にAndroidアプリ開発の公式プログラミング言語としてKotlinを導入して以来、KotlinはAndroid開発で広く採用されている。
現実世界のプロジェクトでJavaとKotlinが相互に相互作用する方法については、限定的な研究がある。
我々は、3,227のJavaと8,630のKotlinソースファイルを持つ23のKotlin-Java実世界のプロジェクトについて実証的研究を行った。
論文 参考訳(メタデータ) (2024-05-07T18:26:24Z) - Depends-Kotlin: A Cross-Language Kotlin Dependency Extractor [3.0915964434574175]
Depends-KotlinはKotlinコード内のエンティティの依存関係の抽出をサポートする。
KotlinとJava間の依存関係関係も抽出できる。
Depends-Kotlinは、Kotlin-KotlinとKotlin-Javaの依存関係関係を解決する際に、高い精度とパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-01-30T10:15:35Z) - LongBench: A Bilingual, Multitask Benchmark for Long Context Understanding [58.20031627237889]
LongBenchは、コンテキスト理解のための最初のバイリンガルでマルチタスクのベンチマークである。
英語と中国語の6つのタスクカテゴリにまたがる21のデータセットで構成され、平均的な長さは6,711語(英語)と13,386文字(中国語)である。
論文 参考訳(メタデータ) (2023-08-28T11:53:40Z) - Binding Language Models in Symbolic Languages [146.3027328556881]
Binderはトレーニング不要のニューラルシンボリックフレームワークで、タスク入力をプログラムにマッピングする。
解析の段階では、Codexは元のプログラミング言語では答えられないタスク入力の一部を特定することができる。
実行段階では、CodexはAPI呼び出しで適切なプロンプトを与えられた万能機能を実行することができる。
論文 参考訳(メタデータ) (2022-10-06T12:55:17Z) - Continual Learning in Multilingual NMT via Language-Specific Embeddings [92.91823064720232]
共有語彙を小さな言語固有の語彙に置き換え、新しい言語の並列データに新しい埋め込みを微調整する。
元のモデルのパラメータは変更されていないため、初期言語の性能は劣化しない。
論文 参考訳(メタデータ) (2021-10-20T10:38:57Z) - Small-Text: Active Learning for Text Classification in Python [23.87081733039124]
small-textはPython用の使いやすいアクティブラーニングライブラリである。
シングルラベルとマルチラベルのテキスト分類のためのプールベースのアクティブラーニングを提供する。
論文 参考訳(メタデータ) (2021-07-21T19:23:56Z) - Continual Mixed-Language Pre-Training for Extremely Low-Resource Neural
Machine Translation [53.22775597051498]
我々は,mbart を未熟な言語に効果的に適用するための,継続的な事前学習フレームワークを提案する。
その結果,mBARTベースラインの微調整性能を一貫して改善できることが示された。
私たちのアプローチは、両方の言語が元のmBARTの事前トレーニングで見られる翻訳ペアのパフォーマンスを高めます。
論文 参考訳(メタデータ) (2021-05-09T14:49:07Z) - Mining Knowledge for Natural Language Inference from Wikipedia
Categories [53.26072815839198]
NLIおよびLEタスクのモデル性能を改善するためのリソースであるWikiNLIを紹介する。
ウィキペディアには、自然に注釈付けされたカテゴリー階層から作られた428,899の句が含まれている。
我々は、BERTやRoBERTaのような強力なベースラインをWikiNLIで事前訓練し、下流タスクでモデルを転送することで改善できることを示します。
論文 参考訳(メタデータ) (2020-10-03T00:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。