論文の概要: MRM3: Machine Readable ML Model Metadata
- arxiv url: http://arxiv.org/abs/2505.13343v1
- Date: Mon, 19 May 2025 16:50:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.749961
- Title: MRM3: Machine Readable ML Model Metadata
- Title(参考訳): MRM3:マシン可読MLモデルメタデータ
- Authors: Andrej Čop, Blaž Bertalanič, Marko Grobelnik, Carolina Fortuna,
- Abstract要約: そこで本研究では,Neo4jをベースとしたKGに113ノードと199リレーションを組み込んだ,4つのデータセット上でトレーニングされた22のモデルからなる,無線ローカライゼーションモデルメタデータデータセットの例を示す。
モデルメタデータは、エネルギー消費や炭素フットプリントといった環境影響指標を取り入れつつ、より構造化され、機械で読めます。
- 参考スコア(独自算出の注目度): 1.1549572298362785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the complexity and number of machine learning (ML) models grows, well-documented ML models are essential for developers and companies to use or adapt them to their specific use cases. Model metadata, already present in unstructured format as model cards in online repositories such as Hugging Face, could be more structured and machine readable while also incorporating environmental impact metrics such as energy consumption and carbon footprint. Our work extends the existing State of the Art by defining a structured schema for ML model metadata focusing on machine-readable format and support for integration into a knowledge graph (KG) for better organization and querying, enabling a wider set of use cases. Furthermore, we present an example wireless localization model metadata dataset consisting of 22 models trained on 4 datasets, integrated into a Neo4j-based KG with 113 nodes and 199 relations.
- Abstract(参考訳): マシンラーニング(ML)モデルの複雑さと数が増えるにつれて、開発者や企業が特定のユースケースにそれらを使用あるいは適応するためには、十分に文書化されたMLモデルが不可欠である。
モデルメタデータは、Hugging Faceのようなオンラインレポジトリのモデルカードとして既に構造化されていない形式で存在し、より構造化され、マシン可読性を持つと同時に、エネルギー消費や炭素フットプリントといった環境影響指標も組み込むことができる。
我々の研究は、機械可読形式に焦点を当てたMLモデルメタデータのための構造化スキーマを定義し、より優れた組織とクエリのための知識グラフ(KG)への統合をサポートし、より広範なユースケースを実現することで、既存の最先端技術を拡張します。
さらに、Neo4jベースのKGに113ノードと199リレーションを組み込んだ22のモデルからなるワイヤレスローカライゼーションモデルメタデータデータセットの例を示す。
関連論文リスト
- SLOT: Structuring the Output of Large Language Models [5.683327173793259]
SLOT(Structured LLM Output Transformer)は,非構造化LCM出力を正確な構造化形式に変換するモデルに依存しない手法である。
この結果から,制約付き復号化による微調整Mistral-7Bモデルでは,ほぼ完全なスキーマ精度が得られた。
特に、Llama-3.2-1Bのようなコンパクトなモデルでさえ、はるかに大きなプロプライエタリなモデルの出力能力にマッチまたは超えることができる。
論文 参考訳(メタデータ) (2025-05-06T23:29:43Z) - MatMMFuse: Multi-Modal Fusion model for Material Property Prediction [0.0]
本稿では,CGCNN(Crystal Graph Convolution Network)とSciBERTモデルからのテキスト埋め込みから構造を意識した融合モデルを提案する。
提案モデルでは,バニラCGCNNモデルに対して68%,SciBERTモデルに対して68%の精度で生成エネルギーを予測できた。
論文 参考訳(メタデータ) (2025-04-30T09:26:28Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - LLM Augmented LLMs: Expanding Capabilities through Composition [56.40953749310957]
CALM -- 言語モデルの拡張のための構成 -- は、モデル間の相互アテンションを導入して、表現を構成し、新しい機能を有効にする。
低リソース言語で訓練されたより小さなモデルでPaLM2-Sを増強すると、英語への翻訳のようなタスクで最大13%の改善が達成される。
PaLM2-Sがコード固有モデルで拡張されると、コード生成や説明タスクのベースモデルよりも40%向上する。
論文 参考訳(メタデータ) (2024-01-04T18:53:01Z) - GSAP-NER: A Novel Task, Corpus, and Baseline for Scholarly Entity
Extraction Focused on Machine Learning Models and Datasets [3.9169112083667073]
学術的な文章では、機械学習モデルとデータセットへの参照が基本的なコンポーネントである。
既存の真理データセットは、MLモデルやモデルアーキテクチャのようなきめ細かい型を別々のエンティティタイプとして扱わない。
MLモデルとデータセットを中心とした10のエンティティタイプを対象とした,100のコーパスを手動でアノテートしたフルテキストの科学出版物と,最初のベースラインモデルをリリースする。
論文 参考訳(メタデータ) (2023-11-16T12:43:02Z) - Pink: Unveiling the Power of Referential Comprehension for Multi-modal
LLMs [49.88461345825586]
本稿では,MLLMの微細な画像理解能力を高めるための新しい枠組みを提案する。
本稿では,既存のデータセットのアノテーションを活用して,命令チューニングデータセットを低コストで構築する手法を提案する。
本研究では,Qwen-VLよりも5.2%精度が向上し,Kosmos-2の精度が24.7%向上したことを示す。
論文 参考訳(メタデータ) (2023-10-01T05:53:15Z) - Unlocking Model Insights: A Dataset for Automated Model Card Generation [4.167070553534516]
25のMLモデルに対して500対の質問応答ペアのデータセットを導入する。
元の論文から回答を抽出するためにアノテーションを使用します。
また,ChatGPT-3.5,LLaMa,Galacticaを用いた実験では,これらのLMによる研究論文の理解に大きなギャップが認められた。
論文 参考訳(メタデータ) (2023-09-22T04:46:11Z) - Struc-Bench: Are Large Language Models Really Good at Generating Complex Structured Data? [49.688233418425995]
Struc-Benchは、大きな言語モデル(LLM)を特徴とする包括的なベンチマークである。
Pスコア(Prompting Score)とHスコア(Heuristical Score)の2つの革新的な指標を提案する。
実験の結果,LLaMA-7Bに構造認識の微調整を適用すると,性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:31:58Z) - Metadata Representations for Queryable ML Model Zoos [73.24799582702326]
機械学習(ML)の実践者や組織は、事前訓練されたモデルのモデル動物園を構築しており、モデルの性質を記述するメタデータを含んでいる。
メタタダは現在標準化されておらず、表現力は限られている。
本稿では,MLモデルのメタデータ表現と管理の標準化を提唱し,そのメタデータの管理とクエリを支援するツールキットを提案する。
論文 参考訳(メタデータ) (2022-07-19T15:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。