論文の概要: Comparing Bills of Materials
- arxiv url: http://arxiv.org/abs/2411.10384v1
- Date: Fri, 15 Nov 2024 17:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:39:00.149967
- Title: Comparing Bills of Materials
- Title(参考訳): 材料の比較法
- Authors: Lucas Tate, Rebecca Jones, Doug Dennis, Tatyana Benko, Jody Askren,
- Abstract要約: 材料請求書(BOM)は、サプライチェーンリスクを管理するための有効なツールとして急速に成長している。
本稿では,BOMの比較に関するいくつかの課題について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Bills of materials (BOMs) are quickly becoming an effective tool for managing supply chain risk. As more BOMs enter circulation, the ability to compare them will be crucial to understanding how products differ and in managing BOMs from different tools or sources. This paper will describe some of the challenges of comparing BOMs followed by a discussion of several comparison methods
- Abstract(参考訳): 材料請求書(BOM)は、サプライチェーンリスクを管理するための有効なツールとして急速に成長している。
BOMが流通するにつれて、それらを比較する能力は、製品がどのように異なるかを理解し、異なるツールやソースからBOMを管理する上で重要である。
本稿では,BOMの比較に関するいくつかの課題について述べる。
関連論文リスト
- Match, Compare, or Select? An Investigation of Large Language Models for Entity Matching [47.01589023992927]
我々は、複数の戦略と大規模言語モデル(LLM)の構成を利用する複合エンティティマッチングフレームワーク(ComEM)を設計する。
ComEMは、異なる側面の利点から恩恵を受け、効率性と効率性の両方の改善を実現します。
8つのERデータセットと9つのLLMによる実験結果は、選択戦略によりレコード相互作用を組み込むことの優位性を検証した。
論文 参考訳(メタデータ) (2024-05-27T07:05:27Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Predicting Text Preference Via Structured Comparative Reasoning [110.49560164568791]
我々は、構造化中間比較を生成することによって、テキストの嗜好を予測するプロンプト方式であるSCを導入する。
我々は、テキスト間の差異を明確に区別するためのペアワイズ整合コンパレータと一貫した比較を選択する。
要約,検索,自動評価など多種多様なNLPタスクに対する総合的な評価は,SCがテキスト優先予測における最先端性能を達成するためにLLMを装備していることを示す。
論文 参考訳(メタデータ) (2023-11-14T18:51:38Z) - Extracting Entities of Interest from Comparative Product Reviews [9.401989315830846]
本稿では,各種電子商取引サイトにおけるユーザレビューから製品比較情報を抽出するための深層学習に基づくアプローチを提案する。
LSTMを用いて,両者の相互関係を良好に把握できることが観察された。
論文 参考訳(メタデータ) (2023-10-31T08:43:11Z) - BLESS: Benchmarking Large Language Models on Sentence Simplification [55.461555829492866]
我々は、テキスト単純化(TS)タスク上で、最新の最先端の大規模言語モデル(LLM)のパフォーマンスベンチマークであるBLESSを紹介する。
異なるドメイン(Wikipedia、ニュース、医療)の3つのテストセットに対して、サイズ、アーキテクチャ、事前学習方法、アクセシビリティの異なる44のモデルを評価する。
評価の結果,最高のLSMはTSのトレーニングを受けていないにもかかわらず,最先端のTSベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2023-10-24T12:18:17Z) - An Approach to Multiple Comparison Benchmark Evaluations that is Stable
Under Manipulation of the Comparate Set [10.353747919337817]
ベンチマーク比較の結果を示す新しい手法として,MCM(Multiple Comparison Matrix)を提案する。
MCMはペアワイズ比較を優先し、既存のアプローチで実験結果を操作する手段を阻害する。
MCMはPythonで実装されており、公開されている。
論文 参考訳(メタデータ) (2023-05-19T08:58:55Z) - Multi-Agent Reinforcement Learning with Shared Resources for Inventory
Management [62.23979094308932]
私たちの設定では、共有リソース(在庫容量など)の制約は、SKUごとに独立した制御を結合します。
共有資源ゲーム(SRSG)としてこの問題を定式化し,CD-PPO(Context-aware Decentralized PPO)と呼ばれる効率的なアルゴリズムを提案する。
実験により,CD-PPOは標準的なMARLアルゴリズムと比較して学習手順を高速化できることが実証された。
論文 参考訳(メタデータ) (2022-12-15T09:35:54Z) - "Are you sure?": Preliminary Insights from Scaling Product Comparisons
to Multiple Shops [0.0]
既存のトレーニング/分類データなしで大規模な比較を構築することは、依然としてオープンな課題である。
マルチショップシナリオでスケールするように設計された比較パイプラインの構築による予備的な結果を示す。
論文 参考訳(メタデータ) (2021-07-07T14:39:52Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z) - Comparison of scanned administrative document images [0.9558392439655015]
文書画像比較法は,テキスト特徴点の記述子である単語の複数種類の画像比較を組み合わせて提案する。
その結果、同一文書のバージョンである2つの画像の相違点の精度と信頼性が示された。
論文 参考訳(メタデータ) (2020-01-29T12:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。