論文の概要: SE Journals in 2036: Looking Back at the Future We Need to Have
- arxiv url: http://arxiv.org/abs/2601.19217v1
- Date: Tue, 27 Jan 2026 05:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:55:05.492335
- Title: SE Journals in 2036: Looking Back at the Future We Need to Have
- Title(参考訳): 2036年のSE Journals: 未来を振り返る
- Authors: Tim Menzies, Paris Avgeriou, Robert Feldt, Mauro Pezzè, Abhik Roychoudhury, Miroslaw Staron, Sebastian Uchitel, Thomas Zimmermann,
- Abstract要約: 従来のピアレビューのプラクティスは、緊張の下で崩壊しています。
モノリシックレビューの「官僚的異常」は数学的には持続不可能になっている。
ここでは、EMSE、IST、JSS、TOSEM、TSEの編集者たちが、より明るい未来の集合的な夢を夢見ている。
- 参考スコア(独自算出の注目度): 17.174084525467013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 2025, SE publishing faces an existential crisis of scalability. As our communities swell globally and integrate fast-moving methodologies like LLMs, traditional peer-review practices are collapsing under the strain. The "bureaucratic anomaly" of monolithic review has become mathematically unsustainable, creating a stochastic "lottery" that punishes novelty and exhausts researchers. This paper, written from the perspective of 2036, documents potential solutions. Here, the editors of ASE, EMSE, IST, JSS, TOSEM and TSE dream a collective dream of a brighter future. In summary first we stopped fighting (The Journal Alliance). Then we fixed the process (The Lottery / Unbundling / Fixing the Benchmark Graveyard). And then we fixed the culture (Cathedrals/Bazaars).
- Abstract(参考訳): 2025年、SEパブリッシングはスケーラビリティの危機に直面している。
コミュニティがグローバルに拡大し、LDMのような高速移動方法論を統合するにつれ、従来のピアレビュープラクティスは緊張の下で崩壊しています。
モノリシックなレビューの「官僚的異常」は数学的には持続不可能となり、確率的な「ロタリー」を生み出し、新規性を罰し、研究者を疲れさせる。
この論文は2036年の観点から記述され、潜在的な解決策を文書化している。
ここでASE、EMSE、IST、JSS、TOSEM、TSEの編集者たちは、より明るい未来の集合的な夢を夢見ている。
まとめると、われわれはまず戦闘をやめた(The Journal Alliance)。
そして、プロセスを修正しました(The Lottery / Unbundling / Fixing the Benchmark Graveyard)。
そして、カルチャー(Cathedrals/Bazaars)を修正しました。
関連論文リスト
- Chasing Shadows: Pitfalls in LLM Security Research [14.334369124449346]
大型言語モデル(LLM)の出現に関連する9つの共通の落とし穴を同定する。
これらの落とし穴は、データ収集、事前トレーニング、微調整から、プロンプトと評価まで、プロセス全体にわたっています。
各紙には少なくとも1つの落とし穴があり、各落とし穴は複数の論文に現れている。しかし、現在の落とし穴の15.7%しか明示的に議論されておらず、大多数は認識されていないことを示唆している。
論文 参考訳(メタデータ) (2025-12-10T11:39:09Z) - "All You Need" is Not All You Need for a Paper Title: On the Origins of a Scientific Meme [0.029008108937701324]
我々は'All You Need'を含む717のarXivプレプリントをそのタイトルで分析する。
正統的な「X [Is] All You Need」構造に従う論文の中では、「注意」が最も頻繁に主張される(28件)。
我々は、このパターンの成功は、精度よりも記憶可能性の方がますます好まれる科学コミュニケーションにおける競争的な圧力を反映していると主張している。
論文 参考訳(メタデータ) (2025-12-03T17:36:45Z) - Humanity in the Age of AI: Reassessing 2025's Existential-Risk Narratives [0.0]
我々は、現在進行中の監視資本主義の統合からイデオロギー的な注意をそらすものとして、存在リスク論が主に機能すると主張している。
この仮説は2025年11月に実証された確率よりも投機的金融バブルによって増幅された投機的仮説として残されている。
論文 参考訳(メタデータ) (2025-12-01T19:37:27Z) - Is Model Editing Built on Sand? Revealing Its Illusory Success and Fragile Foundation [50.40861036534546]
大きな言語モデル(LLM)は、必然的に時代遅れまたは誤った知識をエンコードする。そのような知識の更新、削除、そして忘れは、アライメント、安全性、その他の問題にとって重要である。
この問題を解決するために、モデル編集は有望なパラダイムとして現れ、特定の事実が更新され、他の知識を保持しながら、パラメータの小さなサブセットを正確に編集する。
前回の論文で大きな成功を収めたにもかかわらず、編集の信頼性は脆弱な基盤にかかっていることが判明した。
我々の経験的証拠は、編集が完全な意味論よりもショートカットに基づく可能性が高いことを示し、さらなる進歩の前にモデル編集の基盤を急激な再考を求める。
論文 参考訳(メタデータ) (2025-10-01T07:59:23Z) - Rethinking the Illusion of Thinking [0.0]
Appleは“The Illusion of Thinking”を発表し、AIコミュニティ内で熱い議論を巻き起こした。
従来報告されたハノイ塔の故障は, 出力制約の結果ではないことを示した。
また, 河川横断試験の結果は, 当初, 破滅的な失敗が原因で, 解決不可能な構成を検証したところ, ヒンジに陥ることが示唆された。
論文 参考訳(メタデータ) (2025-07-01T23:10:02Z) - Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews [51.453135368388686]
本稿では,大規模言語モデル (LLM) によって実質的に修正あるいは生成される可能性のある大規模コーパスにおけるテキストの分数推定手法を提案する。
我々の最大可能性モデルは、専門家による参照テキストとAIによる参照テキストを利用して、コーパスレベルでの実世界のLLM使用を正確かつ効率的に検証する。
論文 参考訳(メタデータ) (2024-03-11T21:51:39Z) - Findings of the WMT 2023 Shared Task on Discourse-Level Literary
Translation: A Fresh Orb in the Cosmos of LLMs [80.05205710881789]
我々は、著作権と文書レベルの中国英語ウェブ小説コーパスをリリースする。
今年は7つのアカデミックチームと業界チームから14の応募を受け取りました。
システムの公式ランキングは、全体的な人間の判断に基づいている。
論文 参考訳(メタデータ) (2023-11-06T14:23:49Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Comments on Leo Breiman's paper 'Statistical Modeling: The Two Cultures'
(Statistical Science, 2001, 16(3), 199-231) [1.2183405753834562]
ブレマンは統計学者に、より広く考え、未知のモデルのない学習世界に踏み込むよう求めた。
新たなフロンティアが出現し、学習アルゴリズムの役割、影響、安定性が予測品質によって測定されるのではなく、推論によって測定されるようになる。
論文 参考訳(メタデータ) (2021-03-21T07:40:37Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。