論文の概要: New Localizable Entanglement
- arxiv url: http://arxiv.org/abs/2507.11020v1
- Date: Tue, 15 Jul 2025 06:25:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.004291
- Title: New Localizable Entanglement
- Title(参考訳): 新しいローカライズ可能な絡み合い
- Authors: Abbaas Sabour, Fereydoon Khazali, Soghra Ghanavati,
- Abstract要約: 新たなローカライズ可能な絡み合い (NLE) は常にローカライズ可能な絡み合い (LE) よりも小さいか等しいかを示す。
3つのコンポーネントを持つシステムでは、NLEはLEと大きく異なるわけではない。
古典的相関は LE の下位境界であり、NLE の下位境界でもある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we have addressed an ambiguity in the concept of localizable entanglement (LE) introduced by Verstraete et al in 2004. By doing so, we have proposed and explored a unique form of this entanglement, called new localizable entanglement (NLE). We have shown that NLE is always less than or equal to LE. Additionally, we have demonstrated that for systems with three components, NLE does not differ significantly from LE. However, when the number of components increases to four, there is a possibility of significant differences between the two methods. Furthermore, as the number of components increases further, this difference becomes slightly more pronounced. It appears that the classical correlation, which is the lower bound for LE, is also a lower bound for NLE.
- Abstract(参考訳): 本研究では,2004年にVerstraeteらによって導入されたローカライズ可能な絡み合い(LE)の概念の曖昧さに対処した。
そこで我々は,新しい局所化可能な絡み合い (NLE) と呼ばれる,この絡み合いのユニークな形態を提案し,検討した。
NLE は常に LE より小さいか等しいかを示す。
さらに、3つのコンポーネントを持つシステムでは、NLEはLEと大きく異なるものではないことを示した。
しかし、成分数が4に増加すると、2つの方法の間に大きな違いが生じる可能性がある。
さらに、成分の数がさらに増えるにつれて、この差はわずかに顕著になる。
古典的相関は LE の下位境界であり、NLE の下位境界でもある。
関連論文リスト
- LLM-NEO: Parameter Efficient Knowledge Distillation for Large Language Models [54.86076216773461]
知識蒸留(KD)は、大規模言語モデル(LLM)を圧縮する主要な方法である。
本研究は,LoRAをKDに統合し,知識伝達効率を向上させるパラメータ効率の高い知識蒸留法 LLM-NEO を提案する。
論文 参考訳(メタデータ) (2024-11-11T10:07:51Z) - Can Large Language Models put 2 and 2 together? Probing for Entailed Arithmetical Relationships [0.0]
大規模言語モデルは,GPTリリース毎に知識獲得と(疑似)推論に着実に進展することを示す。
純粋な統計的学習は、多くの常識的推論タスクに固有の爆発に対処できるという主張は困難である。
より大きいものは必ずしも良いものではなく、純粋に統計的に改善を追求することは、コアに欠陥がある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-04-30T10:28:04Z) - Lattice Rescoring Based on Large Ensemble of Complementary Neural
Language Models [50.164379437671904]
本研究では, 音声認識仮説に基づく格子再構成における, 高度なニューラルネットワークモデル (NLM) の大規模なアンサンブルの有効性について検討する。
講義音声コーパスを用いた実験では,8つのNLMを組み合わせ,文脈担持を用いて,ASR 1-bestベースラインから24.4%の単語誤り率を低減した。
論文 参考訳(メタデータ) (2023-12-20T04:52:24Z) - NLPBench: Evaluating Large Language Models on Solving NLP Problems [41.01588131136101]
大規模言語モデル(LLM)は、自然言語処理(NLP)の能力を高めることを約束している。
イェール大学の最終試験から得られた様々なNLPトピックにまたがる378の大学レベルのNLP質問を含む,ユニークなベンチマークデータセットであるNLPBenchを提案する。
GPT-3.5/4, PaLM-2, LLAMA-2などのLCMに着目した評価では, チェーン・オブ・シークレット(CoT)やツリー・オブ・シークレット(ToT)といった先進的なプロンプト戦略が取り入れられている。
論文 参考訳(メタデータ) (2023-09-27T13:02:06Z) - Situated Natural Language Explanations [54.083715161895036]
自然言語の説明(NLE)は、人間に意思決定を説明する最もアクセスしやすいツールである。
既存のNLE研究の視点は、観客を考慮に入れない。
Situated NLEは視点を提供し、説明の生成と評価に関するさらなる研究を促進する。
論文 参考訳(メタデータ) (2023-08-27T14:14:28Z) - KNOW How to Make Up Your Mind! Adversarially Detecting and Alleviating
Inconsistencies in Natural Language Explanations [52.33256203018764]
不整合性NLEを検出するために既存の敵攻撃を大幅に改善するために,外部知識ベースを活用する。
高いNLE品質のモデルが必ずしも矛盾を生じさせるとは限らないことを示す。
論文 参考訳(メタデータ) (2023-06-05T15:51:58Z) - Distinguishability-based genuine nonlocality with genuine multipartite
entanglement [0.0]
本研究では, 判別可能性に基づく真の非局所性(非局所性)について検討する。
我々は、濃度が少なくとも局所次元 d において線型にスケールダウンできることを示し、線型係数 l = 1 である。
論文 参考訳(メタデータ) (2022-11-04T11:44:30Z) - ULN: Towards Underspecified Vision-and-Language Navigation [77.81257404252132]
Underspecificified Vision-and-Language Navigation (ULN)は、視覚・言語ナビゲーション(VLN)のための新しい設定である
本稿では,分類モジュール,ナビゲーションエージェント,エクスプロイテーション・ツー・エクスプロレーション(E2E)モジュールで構成されるVLNフレームワークを提案する。
我々のフレームワークはより堅牢で、ULNのベースラインを全レベルの相対的な成功率で10%上回る。
論文 参考訳(メタデータ) (2022-10-18T17:45:06Z) - Entanglement negativity versus mutual information in the quantum Hall
effect and beyond [0.0]
本研究では,非圧縮性量子ホール状態を含むシステム群における2つの絡み合い尺度について検討する。
まず、LN と MI の幾何学的依存に関する非摂動特性を得る。
我々はこれらの性質を整数量子ホール状態で明確に検証する。
論文 参考訳(メタデータ) (2022-08-26T18:00:01Z) - ELODI: Ensemble Logit Difference Inhibition for Positive-Congruent Training [110.52785254565518]
負のフリップ率(NFR)を減少させる既存の方法は、新しいモデルに古いモデルを模倣させたり、アンサンブルを使用したりすることで、全体的な精度を犠牲にしている。
我々は、NFRの低減におけるアンサンブルの役割を分析し、通常決定境界に近くない負のフリップを取り除くことを観察する。
本稿では,誤り率とNFRの両方でパラゴン性能を実現する分類システムを訓練するためのELODI(Ensemble Logit Difference Inhibition)を提案する。
論文 参考訳(メタデータ) (2022-05-12T17:59:56Z) - Few-Shot Out-of-Domain Transfer Learning of Natural Language
Explanations [37.34026971090258]
自然言語の説明を提供するためのモデル(NLE)の訓練には、タスク固有のNLEの取得が必要である。
潜在的な解決策は、多数のNLEを持つドメインから少ないNLEを持つドメインへのNLEのドメイン外移動である。
NLEは少ないがラベルが豊富である場合,NLEを数秒間移行学習するための3つのバニラアプローチを導入する。
論文 参考訳(メタデータ) (2021-12-12T11:10:39Z) - A Survey of Label-noise Representation Learning: Past, Present and
Future [172.28865582415628]
Label-Noise Representation Learning (LNRL) 法は、ノイズのあるラベルでディープモデルを堅牢に訓練することができる。
LNRL法は、インスタンス依存のLNRL、敵のLNRL、新しいデータセットの3つの方向に分けられる。
我々は,LNRLを超えて,特徴ノイズ,優先ノイズ,ドメインノイズ,類似ノイズ,グラフノイズ,実演ノイズなどの潜在方向を想定する。
論文 参考訳(メタデータ) (2020-11-09T13:16:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。