論文の概要: Computing L1 Straight-Line Fits to Data (Part 1)
- arxiv url: http://arxiv.org/abs/2001.00813v1
- Date: Tue, 31 Dec 2019 02:29:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 21:01:18.215681
- Title: Computing L1 Straight-Line Fits to Data (Part 1)
- Title(参考訳): L1ストレートラインデータの計算(その1)
- Authors: Ian Barrodale
- Abstract要約: この報告は主に、L1近似の性質に慣れていない人々のためのものである。
レポートの残りの部分は、すでにL1アルゴリズムの内部動作に精通している読者にも注目するべきだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The initial remarks in this technical report are primarily for those not
familiar with the properties of L1 approximation, but the remainder of the
report should also interest readers who are already acquainted with the inner
workings of L1 algorithms.
- Abstract(参考訳): このテクニカルレポートの最初のコメントは、主にl1近似の性質に精通していない人々のためのものであるが、レポートの残りは、既にl1アルゴリズムの内部動作に精通している読者にも関心を寄せるべきである。
関連論文リスト
- A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - CopyLens: Dynamically Flagging Copyrighted Sub-Dataset Contributions to LLM Outputs [39.425944445393945]
CopyLensは,著作権付きデータセットが大規模言語モデルの応答に与える影響を分析するフレームワークである。
実験の結果、CopyLensは提案したベースラインよりも効率と精度を15.2%向上し、エンジニアリング手法より58.7%、OOD検出ベースラインより0.21AUC向上した。
論文 参考訳(メタデータ) (2024-10-06T11:41:39Z) - A Strategy to Combine 1stGen Transformers and Open LLMs for Automatic Text Classification [7.303409990401068]
大規模言語モデル(LLM)は、いくつかのNLPタスクにおいて最先端と見なされている。
本研究では,11の感情分析データセットを対象とした3つの1stTRと2つのオープンLLMを比較した。
本稿では,1stTR をオープン LLM とシームレスに統合する戦略を提案する。
論文 参考訳(メタデータ) (2024-08-19T01:22:21Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Prompt-based vs. Fine-tuned LLMs Toward Causal Graph Verification [0.0]
本研究の目的は,テキストソースを用いた因果グラフの自動検証に自然言語処理(NLP)技術を適用することである。
我々は,(1)因果関係分類タスク用に微調整された事前学習言語モデルと(2)プロンプトベースLPMの2種類のNLPモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-05-29T09:06:18Z) - Dated Data: Tracing Knowledge Cutoffs in Large Language Models [47.987664966633865]
LLMの資源レベルの時間的アライメントに有効なカットオフを推定するための簡単な手法を提案する。
効果的なカットオフは、報告されたカットオフとしばしば異なります。
提案手法は,(1)非自明なデータ量によるCommonCrawlデータの時間的偏りと,(2)意味的重複と語彙的近接重複を含むLLM重複の重複という2つの原因を明らかにした。
論文 参考訳(メタデータ) (2024-03-19T17:57:58Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Minimally Informed Linear Discriminant Analysis: training an LDA model
with unlabelled data [51.673443581397954]
本研究では,LDAモデルからの正確な射影ベクトルを,ラベルのないデータに基づいて計算可能であることを示す。
MILDA投影ベクトルはLDAに匹敵する計算コストで閉じた形で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-10-17T09:50:31Z) - Simple Yet Effective Synthetic Dataset Construction for Unsupervised
Opinion Summarization [28.52201592634964]
本稿では、アスペクト特化と一般的な意見要約の両方を生成するための、単純で効果的な教師なしの2つのアプローチを提案する。
最初のアプローチであるSed Words Based Leave-One-Out (SW-LOO) は、正確にマッチングされたアスペクトシードワードによって、アスペクト関連のレビューを識別する。
第2のアプローチであるNLI-LOO(Natural Language Inference Based Leave-One-Out)では、NLIモデルを用いたアスペクト関連文を、シード語を使わずにより一般的な設定で識別する。
論文 参考訳(メタデータ) (2023-03-21T08:08:04Z) - Overcoming Prior Misspecification in Online Learning to Rank [4.665041704405341]
我々は,前者の要求に適合する適応アルゴリズムを提案し,解析する。
クリックフィードバックに加えてスカラー関連フィードバックも検討する。
合成実験と実世界の実験の両方を用いて,本アルゴリズムの有効性を実証した。
論文 参考訳(メタデータ) (2023-01-25T15:48:00Z) - LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking [62.634516517844496]
本稿では,解釈可能なルールとニューラルネットワークの性能を併用したニューラルシンボリックアプローチであるLNN-ELを提案する。
ルールの使用に制約があるにもかかわらず、LNN-ELはSotAのブラックボックスニューラルアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-17T20:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。