論文の概要: Experimental verification of the work fluctuation-dissipation relation
for information-to-work conversion
- arxiv url: http://arxiv.org/abs/2109.03090v2
- Date: Wed, 8 Sep 2021 08:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 22:42:31.970728
- Title: Experimental verification of the work fluctuation-dissipation relation
for information-to-work conversion
- Title(参考訳): 情報対作業変換における作業変動散逸関係の実験的検証
- Authors: David Barker, Matteo Scandi, Sebastian Lehmann, Claes Thelander,
Kimberly A. Dick, Mart\'i Perarnau-Llobet, Ville F. Maisi
- Abstract要約: 本研究では,Landauer 限界 $k_BT ln 2$ に対して抽出される平均作業量が増加するにつれて,作業のゆらぎ/散逸の関係に応じて作業のゆらぎが減少することを示す。
我々の研究は、情報から作業への変換プロセスの設計における変動の重要性を強調している。
- 参考スコア(独自算出の注目度): 0.37943450391498496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study experimentally work fluctuations in a Szilard engine that extracts
work from information encoded as the occupancy of an electron level in a
semiconductor quantum dot. We show that as the average work extracted per bit
of information increases towards the Landauer limit $k_BT \ln 2$, the work
fluctuations decrease in accordance with the work fluctuation-dissipation
relation. We compare the results to a protocol without measurement and feedback
and show that when no information is used, the work output and fluctuations
vanish simultaneously contrasting the information-to-energy conversion case
where increasing amount of work is produced with decreasing fluctuations. Our
work highlights the importance of fluctuations in the design of
information-to-work conversion processes.
- Abstract(参考訳): 半導体量子ドットにおける電子レベルの占有として符号化された情報から作業を抽出するSzilardエンジンの実験的検討を行った。
本研究では,Landauer 限界 $k_BT \ln 2$ に対して抽出される平均作業量が増加するにつれて,作業のゆらぎと消散の関係に応じて作業のゆらぎが減少することを示す。
測定やフィードバックを伴わないプロトコルと比較し、情報を使用しない場合、作業出力とゆらぎは、変動の減少とともに作業量が増大する情報-エネルギー変換ケースに対して同時に消失することを示す。
本研究は,情報対作業変換プロセスの設計におけるゆらぎの重要性を強調した。
関連論文リスト
- Comparing Prior and Learned Time Representations in Transformer Models of Timeseries [0.0]
時間表現は実験装置の主要な側面であり、目の前のアプリケーションに関係のある時間的関係を適切に表現する必要がある。
実験では, 太陽パネルのエネルギー出力の予測から得られたデータを用いて, 固定時間表現において, 直進的に符号化される既知の周期性を示す。
以上の結果から,この現象を十分に理解した実験でも,副作用による事前知識の符号化は困難であることが示唆された。
論文 参考訳(メタデータ) (2024-11-19T12:56:43Z) - Run-and-tumble exact work statistics in a lazy quantum measurement engine: stochastic information processing [0.0]
バックアクションエネルギー入力による1量子ビット量子計測エンジンを導入する。
連続周期で抽出された作業は,過渡的異常拡散を伴うラン・アンド・タンブル法に類似した2次マルコフ法であることを示す。
論文 参考訳(メタデータ) (2024-10-24T14:36:06Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - Machine learning at the mesoscale: a computation-dissipation bottleneck [77.34726150561087]
入力出力デバイスとして使用されるメソスコピックシステムにおける計算散逸ボトルネックについて検討する。
我々のフレームワークは、情報圧縮、入出力計算、非相互相互作用によって引き起こされる動的不可逆性の間の決定的な妥協に光を当てている。
論文 参考訳(メタデータ) (2023-07-05T15:46:07Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding [65.75873687351553]
本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
非意図的に、我々のデータでは、タスクトレーニングデータのサイズを目標とする場合、シーケンシャルトランスファーラーニングがトランスファーラーニングなしで同じモデルと比較した場合、最小限の効果が示される。
論文 参考訳(メタデータ) (2022-10-21T04:36:46Z) - Work extraction from single-mode thermal noise by measurements: How
important is information? [0.0]
我々は、最小限の量子力学的セットアップの文脈において、仕事と情報のラプポートを解明することを目指している。
最小限の設定で、作業抽出の効率と電力制限を比較します。
本研究は,光設備における熱雑音を有用な作業に変換するための実践的戦略の基礎となる可能性がある。
論文 参考訳(メタデータ) (2022-01-27T15:14:36Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Robust Representation Learning via Perceptual Similarity Metrics [18.842322467828502]
Contrastive Input Morphing (CIM) はデータの入力空間変換を学習する表現学習フレームワークである。
CIMは他の相互情報に基づく表現学習技術と相補的であることを示す。
論文 参考訳(メタデータ) (2021-06-11T21:45:44Z) - Phase Transitions in Transfer Learning for High-Dimensional Perceptrons [12.614901374282868]
伝達学習は、関連するソースタスクから学んだ知識を活用することにより、対象タスクの一般化性能の向上を目指す。
後者の質問は、転送元情報が実際にターゲットタスクの一般化性能を減少させるいわゆる負の転送現象に関連しています。
本稿では,関連する1対のパーセプトロン学習タスクを解析し,転送学習の理論解析を行う。
論文 参考訳(メタデータ) (2021-01-06T08:29:22Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。