論文の概要: Lifetime-Aware Design of Item-Level Intelligence
- arxiv url: http://arxiv.org/abs/2509.08193v1
- Date: Tue, 09 Sep 2025 23:53:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.269641
- Title: Lifetime-Aware Design of Item-Level Intelligence
- Title(参考訳): アイテムレベルインテリジェンスの生涯意識設計
- Authors: Shvetank Prakash, Andrew Cheng, Olof Kindgren, Ashiq Ahamed, Graham Knight, Jed Kufel, Francisco Rodriguez, Arya Tschand, David Kong, Mariam Elgamal, Jerry Huang, Emma Chen, Gage Hills, Richard Price, Emre Ozer, Vijay Janapa Reddi,
- Abstract要約: アイテムレベルのインテリジェンス(ILI)のための生涯意識設計フレームワークを提案する。
我々のフレームワークは、シリコンよりもはるかに低コストで、kHzの速度と数千のゲートに制限される柔軟なエレクトロニクスを活用している。
寿命を意識したマイクロアーキテクチャーの設計は炭素フットプリントを1.62倍、アルゴリズムによる決定は炭素フットプリントを14.5倍削減できることを示す。
- 参考スコア(独自算出の注目度): 6.714856281436547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present FlexiFlow, a lifetime-aware design framework for item-level intelligence (ILI) where computation is integrated directly into disposable products like food packaging and medical patches. Our framework leverages natively flexible electronics which offer significantly lower costs than silicon but are limited to kHz speeds and several thousands of gates. Our insight is that unlike traditional computing with more uniform deployment patterns, ILI applications exhibit 1000X variation in operational lifetime, fundamentally changing optimal architectural design decisions when considering trillion-item deployment scales. To enable holistic design and optimization, we model the trade-offs between embodied carbon footprint and operational carbon footprint based on application-specific lifetimes. The framework includes: (1) FlexiBench, a workload suite targeting sustainability applications from spoilage detection to health monitoring; (2) FlexiBits, area-optimized RISC-V cores with 1/4/8-bit datapaths achieving 2.65X to 3.50X better energy efficiency per workload execution; and (3) a carbon-aware model that selects optimal architectures based on deployment characteristics. We show that lifetime-aware microarchitectural design can reduce carbon footprint by 1.62X, while algorithmic decisions can reduce carbon footprint by 14.5X. We validate our approach through the first tape-out using a PDK for flexible electronics with fully open-source tools, achieving 30.9kHz operation. FlexiFlow enables exploration of computing at the Extreme Edge where conventional design methodologies must be reevaluated to account for new constraints and considerations.
- Abstract(参考訳): FlexiFlowはアイテムレベルのインテリジェンス(ILI)のためのライフタイムアウェアな設計フレームワークで、計算を直接食品包装や医療パッチといった使い捨て製品に統合します。
当社のフレームワークは、シリコンよりもはるかに低コストで、kHzの速度と数千のゲートに制限されている、ネイティブに柔軟なエレクトロニクスを活用しています。
我々の洞察では、より均一なデプロイメントパターンを持つ従来のコンピューティングとは異なり、ILIアプリケーションは運用寿命に1000倍のばらつきを示し、デプロイスケールを1兆単位を考慮すると、アーキテクチャ設計の決定を根本的に変更する。
包括的設計と最適化を実現するため,アプリケーション固有の寿命に基づいて,具体的炭素フットプリントと操作的炭素フットプリントのトレードオフをモデル化する。
1)FlexiBench、サステナビリティアプリケーションをターゲットにしたワークロードスイート、2)FlexiBits、面積最適化されたRISC-Vコア、1/4/8ビットのデータパスで、ワークロード実行あたりのエネルギー効率が2.65Xから3.50倍に向上し、(3)デプロイメント特性に基づいて最適なアーキテクチャを選択するカーボンアウェアモデルである。
寿命を意識したマイクロアーキテクチャーの設計は炭素フットプリントを1.62倍、アルゴリズムによる決定は炭素フットプリントを14.5倍削減できることを示す。
完全オープンソースツールを用いたフレキシブルエレクトロニクスのためのPDKを用いた最初のテープアウトによるアプローチの有効性を検証し,30.9kHzの動作を実現した。
FlexiFlowはExtreme Edgeでのコンピューティングの探索を可能にする。
関連論文リスト
- K2-Think: A Parameter-Efficient Reasoning System [80.62468969966133]
K2-Thinkは32Bパラメータモデルを用いて最先端のパフォーマンスを実現する推論システムである。
本システムでは, 先進的なポストトレーニング技術とテストタイム技術を組み合わせることで, より小型のモデルが最上位で競争できることを示す。
K2-Thinkはk2think.aiで無料で利用可能で、クラス内の最高の推論速度はリクエスト1秒あたり2000トークン以上である。
論文 参考訳(メタデータ) (2025-09-09T11:25:55Z) - EfficientLLM: Efficiency in Large Language Models [64.3537131208038]
大規模言語モデル(LLM)は大きな進歩を導いてきたが、その増加とコンテキストウィンドウは計算、エネルギー、金銭的コストを禁止している。
本稿では,新しいベンチマークであるEfficientLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-20T02:27:08Z) - Carbon Aware Transformers Through Joint Model-Hardware Optimization [6.731982787210602]
機械学習システムの炭素フットプリント全体の定量化と最適化を行うツールが不足している。
本稿では,持続可能性駆動型MLモデルとハードウェアアーキテクチャの協調最適化を可能にする,炭素対応アーキテクチャ検索フレームワークであるCATransformersを提案する。
このフレームワークをマルチモーダルCLIPモデルに適用し,CLIPモデル群であるCarbonCLIPを最大17%削減した。
論文 参考訳(メタデータ) (2025-05-02T16:49:10Z) - XAMBA: Enabling Efficient State Space Models on Resource-Constrained Neural Processing Units [0.6063137165121326]
状態空間モデル(SSM)は、シーケンシャルなデータタスクのためのトランスフォーマーの効率的な代替手段として登場した。
XAMBAは、商用オフザシェルフ(COTS)のSOTA(State-of-the-art)NPU上でSSMを有効にし、最適化する最初のフレームワークである。
XAMBAはCumBAとReduBAを使用して鍵ボトルネックを緩和し、シーケンシャルなCumSumとReduceeSumを行列ベースの計算に置き換える。
論文 参考訳(メタデータ) (2025-02-10T17:33:30Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - You Only Compress Once: Towards Effective and Elastic BERT Compression
via Exploit-Explore Stochastic Nature Gradient [88.58536093633167]
既存のモデル圧縮アプローチでは、さまざまなハードウェアデプロイメントに対応するために、さまざまな制約にまたがる再圧縮や微調整が必要となる。
圧縮を一度行い、至るところに展開するための新しいアプローチであるYOCO-BERTを提案する。
最先端のアルゴリズムと比較すると、YOCO-BERTはよりコンパクトなモデルを提供するが、GLUEベンチマークの平均精度は2.1%-4.5%向上している。
論文 参考訳(メタデータ) (2021-06-04T12:17:44Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。