論文の概要: Taking out the Toxic Trash: Recovering Precision in Mixed Flow-Sensitive Static Analyses
- arxiv url: http://arxiv.org/abs/2504.06026v1
- Date: Tue, 08 Apr 2025 13:30:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:35.903117
- Title: Taking out the Toxic Trash: Recovering Precision in Mixed Flow-Sensitive Static Analyses
- Title(参考訳): トキシックトラッシュを脱却する:混合流感性静的解析における精度の回復
- Authors: Fabian Stemmler, Michael Schwarz, Julian Erhard, Sarah Tilscher, Helmut Seidl,
- Abstract要約: 実世界のプログラムの静的解析は、局所的なプログラム状態のフローや文脈に敏感な解析と、グローバルにおけるフローや文脈に敏感な不変量の計算を組み合わせる。
グローバルデータの精度を回復するために,相互に補完する手法を提案する。
これらの手法は, 混合流動感度解析の精度を合理的なコストで向上させる。
- 参考スコア(独自算出の注目度): 5.081957370640533
- License:
- Abstract: Static analysis of real-world programs combines flow- and context-sensitive analyses of local program states with computation of flow- and context-insensitive invariants at globals, that, e.g., abstract data shared by multiple threads. The values of locals and globals may mutually depend on each other, with the analysis of local program states both making contributions to globals and querying their values. Usually, all contributions to globals are accumulated during fixpoint iteration, with widening applied to enforce termination. Such flow-insensitive information often becomes unnecessarily imprecise and can include superfluous contributions -- trash -- which, in turn, may be toxic to the precision of the overall analysis. To recover precision of globals, we propose techniques complementing each other: Narrowing on globals differentiates contributions by origin; reluctant widening limits the amount of widening applied at globals; and finally, abstract garbage collection undoes contributions to globals and propagates their withdrawal. The experimental evaluation shows that these techniques increase the precision of mixed flow-sensitive analyses at a reasonable cost.
- Abstract(参考訳): 実世界のプログラムの静的解析は、複数のスレッドで共有される抽象的なデータのような、局所的なプログラム状態のフローや文脈に敏感な解析と、グローバルにおけるフローや文脈に敏感な不変量の計算を組み合わせる。
地域とグローバルの値は相互に依存しあうことができ、地域プログラム状態の分析はグローバルに貢献し、その価値を問い合わせる。
通常、グローバルへのすべてのコントリビューションは、フィクスポイントイテレーション中に蓄積される。
このようなフローに敏感な情報は、しばしば不必要に不正確になり、過剰なコントリビューション -- ゴミ -- を含む可能性があるため、全体的な分析の精度に悪影響を及ぼす可能性がある。
グローバルスにおけるナローイングは、起源によってコントリビューションを区別し、不愉快な拡大はグローバルスで適用されるワイドニングの量を制限し、最後に、抽象的なガベージコレクションはグローバルスへのコントリビューションを解消し、その撤退を促進する。
実験により, 混合流動感度解析の精度を妥当なコストで向上させることが確認された。
関連論文リスト
- Neighborhood and Global Perturbations Supported SAM in Federated Learning: From Local Tweaks To Global Awareness [29.679323144520037]
フェデレートラーニング(FL)は、中央サーバのオーケストレーションの下で調整して、プライバシ保護モデルを構築することができる。
本稿では,最小限のアップリンク通信オーバヘッドを維持しつつ,一般化目標を考慮した新しいFLアルゴリズムであるFedTOGAを提案する。
論文 参考訳(メタデータ) (2024-08-26T09:42:18Z) - Data Valuation by Leveraging Global and Local Statistical Information [25.911043100052588]
グローバルとローカルの両方の値分布が、機械学習の文脈におけるデータ評価に有意な可能性を秘めていることを示す。
提案手法は,探索された分布特性を既存手法であるAMEに組み込むことで,Shapley値を推定する新しいデータ評価手法であるAMEを提案する。
また,グローバルな値分布と局所的な値分布の情報を統合した最適化問題を定式化することにより,動的データ評価問題に対処する新たな経路を提案する。
論文 参考訳(メタデータ) (2024-05-23T08:58:08Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Understanding How Consistency Works in Federated Learning via Stage-wise
Relaxed Initialization [84.42306265220274]
フェデレートラーニング(Federated Learning, FL)は、大規模なローカルクライアントを協調してグローバルモデルをトレーニングする分散パラダイムである。
従来の研究は、FLがローカルクライアント間の矛盾した最適性によって引き起こされるクライアント・ドリフトの問題に悩まされていることを暗黙的に研究してきた。
FLにおけるクライアントドリフトの負の影響を緩和し,その物質を探索するために,我々はまず,効率的なFLアルゴリズム textitFedInit を設計する。
論文 参考訳(メタデータ) (2023-06-09T06:55:15Z) - $\texttt{FedBC}$: Calibrating Global and Local Models via Federated
Learning Beyond Consensus [66.62731854746856]
フェデレートラーニング(FL)では、デバイス全体にわたるモデル更新の集約を通じて、グローバルモデルを協調的に学習する目的は、ローカル情報を通じたパーソナライズという目標に反対する傾向にある。
本研究では,このトレードオフを多基準最適化により定量的にキャリブレーションする。
私たちは、$texttFedBC$が、スイートデータセット間でグローバルおよびローカルモデルのテスト精度のメトリクスのバランスをとることを実証しています。
論文 参考訳(メタデータ) (2022-06-22T02:42:04Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - SelfReformer: Self-Refined Network with Transformer for Salient Object
Detection [46.72916268774309]
既存の手法は、詳細で完全な予測を生成するのに依然として苦労している。
我々はTransformerベースのネットワークを開発し、グローバルコンテキスト情報を明示的に学習するブランチのための教師付きタスクをフレーム化した。
さらに,グローバルなコンテキストを融合し,予測における局所的な詳細を自動的に特定・洗練する2段階のContext Refinement Moduleを開発した。
論文 参考訳(メタデータ) (2022-05-23T13:10:10Z) - GlobEnc: Quantifying Global Token Attribution by Incorporating the Whole
Encoder Layer in Transformers [19.642769560417904]
本稿では,エンコーダブロックにすべてのコンポーネントを組み込んだ新しいトークン属性解析手法を提案する。
実験の結果,ほぼすべてのエンコーダコンポーネントを組み込むことで,ローカルとグローバルの両方でより正確な分析が可能であることが判明した。
論文 参考訳(メタデータ) (2022-05-06T15:13:34Z) - Revisiting Communication-Efficient Federated Learning with Balanced
Global and Local Updates [14.851898446967672]
本研究では,地域研修の数とグローバルアグリゲーションの数との最適なトレードオフを調査し,分析する。
提案手法は予測精度の点で性能が向上し,ベースライン方式よりもはるかに高速に収束する。
論文 参考訳(メタデータ) (2022-05-03T13:05:26Z) - Distributed Q-Learning with State Tracking for Multi-agent Networked
Control [61.63442612938345]
本稿では,LQR(Linear Quadratic Regulator)のマルチエージェントネットワークにおける分散Q-ラーニングについて検討する。
エージェントに最適なコントローラを設計するための状態追跡(ST)ベースのQ-ラーニングアルゴリズムを考案する。
論文 参考訳(メタデータ) (2020-12-22T22:03:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。