論文の概要: Boolean-aware Attention for Dense Retrieval
- arxiv url: http://arxiv.org/abs/2503.01753v1
- Date: Mon, 03 Mar 2025 17:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:20:09.520416
- Title: Boolean-aware Attention for Dense Retrieval
- Title(参考訳): 密度検索のためのブール認識アテンション
- Authors: Quan Mai, Susan Gauch, Douglas Adams,
- Abstract要約: ブール演算子に基づいてトークンフォーカスを調整する新しいアテンション機構(例えば、 and, not)を提案する。
我々のモデルは専門的なブールの専門家を採用しており、それぞれが演算子固有のコンテキストに対する注意を増幅または抑えるように調整されている。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License:
- Abstract: We present Boolean-aware attention, a novel attention mechanism that dynamically adjusts token focus based on Boolean operators (e.g., and, or, not). Our model employs specialized Boolean experts, each tailored to amplify or suppress attention for operator-specific contexts. A predefined gating mechanism activates the corresponding experts based on the detected Boolean type. Experiments on Boolean retrieval datasets demonstrate that integrating BoolAttn with BERT greatly enhances the model's capability to process Boolean queries.
- Abstract(参考訳): 本稿では,Boolean演算子に基づいてトークンフォーカスを動的に調整する新しいアテンション機構であるBoolean-Aware attentionを提案する。
我々のモデルは専門的なブールの専門家を採用しており、それぞれが演算子固有のコンテキストに対する注意を増幅または抑えるように調整されている。
事前に定義されたゲーティング機構は、検出されたブールタイプに基づいて対応する専門家を活性化する。
ブール検索データセットの実験では、ブールAttnとBERTを統合することにより、ブールクエリを処理するモデルの能力が大幅に向上することが示された。
関連論文リスト
- BoolQuestions: Does Dense Retrieval Understand Boolean Logic in Language? [88.29075896295357]
まず,現在の検索システムが,言語に暗示されるブール論理を理解できるかを検討する。
広範な実験結果から,現在の高密度検索システムはブール論理を十分に理解していないという結論を導いた。
本研究では,研究コミュニティの強力な基盤となるコントラスト的連続学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-19T05:19:53Z) - Boolean Logic as an Error feedback mechanism [0.5439020425819]
ブール論理のバックパゲーションの概念は、重みとアクティベーションがブール数であるニューラルネットワークを構築するために導入された。
ほとんどの計算は、訓練とフェーズの間、実際の算術ではなく論理で行うことができる。
論文 参考訳(メタデータ) (2024-01-29T18:56:21Z) - Boolean Variation and Boolean Logic BackPropagation [0.0]
変動の概念はブール集合に導入され、ブール論理のバックプロパゲーション原理が開発された。
ディープモデルは重みとアクティベーションをブール数として構築でき、実算術の代わりにブール論理で操作できる。
論文 参考訳(メタデータ) (2023-11-13T16:01:43Z) - LF-checker: Machine Learning Acceleration of Bounded Model Checking for
Concurrency Verification (Competition Contribution) [15.600922269515756]
機械学習に基づくメタ検証ツールLF-checkerを記述・評価する。
テスト中のプログラムの複数の特徴を抽出し、決定木による境界モデルチェッカーの最適構成を予測する。
論文 参考訳(メタデータ) (2023-01-22T15:46:57Z) - Oracle Operators for Non-Boolean Functions [0.0]
ブール立方体上の実数値関数に対する一般オラクル作用素の構成を提案する。
我々はShyamsundarのNon-Boolean Amplitude Amplification [arXiv:2102.04975]でそのような演算子を用いて、非断熱アルゴリズムによる二項最適化問題を解く。
論文 参考訳(メタデータ) (2022-12-07T19:58:11Z) - On the Limits of Evaluating Embodied Agent Model Generalization Using
Validation Sets [101.28658250723804]
本稿では,より広い視野を効果的に活用し,次のステップでナビゲーションや操作を行うかを選択するモジュールによるトランスフォーマーモデルの拡張実験を行う。
提案したモジュールは改良され,実際に,一般的なベンチマークデータセットであるALFREDの未確認検証セット上での最先端のパフォーマンスが向上した。
この結果は、機械学習タスクではより広い現象かもしれないが、主にテストスプリットの評価を制限するベンチマークでのみ顕著である、と我々は考えているので強調する。
論文 参考訳(メタデータ) (2022-05-18T23:52:21Z) - Bayesian Bellman Operators [55.959376449737405]
ベイズ強化学習(RL)の新しい視点について紹介する。
我々のフレームワークは、ブートストラップが導入されたとき、モデルなしアプローチは実際には値関数ではなくベルマン作用素よりも後部を推測する、という洞察に動機づけられている。
論文 参考訳(メタデータ) (2021-06-09T12:20:46Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Robustness of Accuracy Metric and its Inspirations in Learning with
Noisy Labels [51.66448070984615]
十分な数の雑音サンプルに対してトレーニング精度を最大化すると,ほぼ最適な分類器が得られることを示す。
検証のために、ノイズの多い検証セットが信頼できることを証明し、モデル選択のクリティカルな要求に対処する。
理論結果に動機づけられて,ノイズラベルをトレーニングしたモデルの特徴付けを行い,ノイズ検証セットの有用性を検証する。
論文 参考訳(メタデータ) (2020-12-08T03:37:47Z) - SelfORE: Self-supervised Relational Feature Learning for Open Relation
Extraction [60.08464995629325]
オープンドメイン関係抽出は、自然言語文からオープンドメイン関係事実を抽出するタスクである。
弱い自己教師型信号を利用する自己教師型フレームワークであるSelfOREを提案する。
3つのデータセットの実験結果は、SelfOREの有効性とロバスト性を示している。
論文 参考訳(メタデータ) (2020-04-06T07:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。