論文の概要: Linting Style and Substance in READMEs
- arxiv url: http://arxiv.org/abs/2603.00331v1
- Date: Fri, 27 Feb 2026 22:00:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 12:52:05.006266
- Title: Linting Style and Substance in READMEs
- Title(参考訳): READMEにおけるリンティングスタイルと物質
- Authors: Hima Mynampaty, Nathania Josephine, Katherine E. Isaacs, Andrew M. McNutt,
- Abstract要約: LintMeを使えば、軽量のDSLを使ってコンテキスト固有のチェックを作成できる。
私たちの設計はフレキシブルで、このドメインのニーズによく適合しています。
この作業は、より複雑なドキュメントやその他の文化的に媒介されたテキストベースの文書をライセンスする扉を開く。
- 参考スコア(独自算出の注目度): 13.668054453181854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: READMEs shape first impressions of software projects, yet what constitutes a good README varies across audiences and contexts. Research software needs reproducibility details, while open-source libraries might prioritize quick-start guides. Through a design probe, LintMe, we explore how linting can be used to improve READMEs given these diverse contexts, aiding style and content issues while preserving authorial agency. Users create context-specific checks using a lightweight DSL that uses a novel combination of programmatic operations (e.g., for broken links) with LLM-based content evaluation (e.g., for detecting jargon), yielding checks that would be challenging for prior linters. Through a user study (N=11), comparison with naive LLM usage, and an extensibility case study, we find that our design is approachable, flexible, and well matched with the needs of this domain. This work opens the door for linting more complex documentation and other culturally mediated text-based documents.
- Abstract(参考訳): READMEはソフトウェアプロジェクトの最初の印象を形作るが、優れたREADMEを構成するものは、聴衆やコンテキストによって異なる。
研究ソフトウェアには再現性の詳細が必要ですが、オープンソースライブラリはクイックスタートガイドを優先します。
筆者らはLintMeというデザイン・プローブを通じて,READMEを多種多様な文脈で改善し,オーソリティ・エージェンシーを保ちながらスタイルやコンテンツの問題に対処する方法について検討した。
ユーザは、LLMベースのコンテンツ評価(例えば、jargonを検出する)とプログラム操作(例えば、リンクが壊れた場合)の新たな組み合わせを使用して、軽量DSLを使用してコンテキスト固有のチェックを作成し、事前のリンタにとって困難なチェックを出力する。
ユーザスタディ(N=11)、単純LLM使用法との比較、拡張性ケーススタディを通じて、我々の設計はアプローチ可能で柔軟性があり、このドメインのニーズによく適合していることがわかった。
この作業は、より複雑なドキュメントやその他の文化的に媒介されたテキストベースの文書をライセンスする扉を開く。
関連論文リスト
- Readme_AI: Dynamic Context Construction for Large Language Models [0.4726094039607201]
データソースのコンテキストを動的に構築できる仕様を提案する。
データソースオーナは、データセット関連のクエリを推論する際に使用するLCMのメタデータを含むファイルを生成する。
データソースからメタデータを取得して,コンテキスト構築に使用するReadme_AI Model Context Protocolサーバのプロトタイプを作成します。
論文 参考訳(メタデータ) (2025-09-12T20:34:58Z) - SelfRACG: Enabling LLMs to Self-Express and Retrieve for Code Generation [75.03316572094514]
textbfSelfRACG は,大規模な言語モデル (LLM) がtextbfRACG を強化するために必要な情報を表現できる新しいパラダイムである。
SelfRACGには、情報要求表現モジュールと、2段階の情報要求誘導トレーニング戦略が含まれており、LLMが情報要求を表現することを奨励している。
大規模な実験により、SelfRACGはLLM自身の情報要求によく適合する外部知識を回収できることが示され、バニラRACGよりも優れた世代性能が得られる。
論文 参考訳(メタデータ) (2025-07-25T07:42:01Z) - Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [80.88654868264645]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - From Prompting to Alignment: A Generative Framework for Query Recommendation [35.654879254147964]
本稿では,クエリ生成とユーザの好みを一致させる生成クエリ推薦(GQR)フレームワークを提案する。
具体的には、多様なクエリレコメンデーションタスクを普遍的なプロンプトフレームワークで統一する。
また,クエリワイドCTR予測器をプロセス報酬モデルとしてトレーニングするCTRアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-14T13:21:29Z) - M-DocSum: Do LVLMs Genuinely Comprehend Interleaved Image-Text in Document Summarization? [49.53982792497275]
本稿では,LVLM(Large Vision-Language Models)が文書中のインターリーブ画像テキストを真に理解しているかどうかを検討する。
既存の文書理解ベンチマークは、しばしば質問応答形式を用いてLVLMを評価する。
マルチモーダル文書要約ベンチマーク(M-DocSum-Bench)について紹介する。
M-DocSum-Benchは500の高品質なarXiv論文と、人間の好みに合わせたインターリーブされたマルチモーダル要約で構成されている。
論文 参考訳(メタデータ) (2025-03-27T07:28:32Z) - DOCBENCH: A Benchmark for Evaluating LLM-based Document Reading Systems [99.17123445211115]
本稿では,大規模言語モデル(LLM)に基づく文書読解システムを評価するベンチマークであるDocBenchを紹介する。
我々のベンチマークには、人間のアノテーションの募集と、合成質問の生成が含まれる。
実際の文書は229件、質問は1,102件で、5つのドメインにまたがって4種類の質問がある。
論文 参考訳(メタデータ) (2024-07-15T13:17:42Z) - Text-like Encoding of Collaborative Information in Large Language Models for Recommendation [58.87865271693269]
BinLLMはLarge Language Models for Recommendation (LLMRec)とシームレスに連携する新しい手法である。
BinLLMは、外部モデルからの協調的な埋め込みをバイナリシーケンスに変換する。
BinLLMは、ドット決定記法を用いてバイナリシーケンスを圧縮するオプションを提供し、過度に長い長さを避ける。
論文 参考訳(メタデータ) (2024-06-05T12:45:25Z) - LAPDoc: Layout-Aware Prompting for Documents [3.523208537466128]
そこで本研究では,テキストベースのLLMを文書固有のタスクに使用する可能性について,レイアウトエンリッチメントを用いて検討する。
その結果,レイアウトの充実により,文書理解のためのテキストベースのLLMの性能が最大15%向上することが示唆された。
論文 参考訳(メタデータ) (2024-02-15T10:00:49Z) - Making Large Language Models A Better Foundation For Dense Retrieval [19.38740248464456]
デンス検索では,クエリとドキュメント間の意味的関係を表現するために,識別テキストの埋め込みを学習する必要がある。
意味理解におけるLLMの強い能力を考えると、大きな言語モデル(LLM)の使用の恩恵を受けるかもしれない。
本稿では,LLaRA (LLM adapted for dense RetrievAl) を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:10:35Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Description-Based Text Similarity [59.552704474862004]
我々は、その内容の抽象的な記述に基づいて、テキストを検索する必要性を特定する。
そこで本研究では,近隣の標準探索で使用する場合の精度を大幅に向上する代替モデルを提案する。
論文 参考訳(メタデータ) (2023-05-21T17:14:31Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。