文件 ResidualQuantizer.h
-
namespace faiss
具有许多变体的k-means聚类实现。
版权所有 (c) Facebook, Inc. 及其附属公司。
此源代码根据 MIT 许可证授权,该许可证位于此源代码树的根目录下的 LICENSE 文件中。
IDSelector旨在定义要处理的向量子集(用于移除或作为搜索的子集)
PQ4 SIMD 打包和累积函数
基本内核使用 bbs = nb * 2 * 16 个向量累积 nq 查询向量,并为此生成一个输出矩阵。 这对于 nq * nb <= 4 很有趣,否则寄存器溢出会变得太大。
这些函数的实现分布在 3 个 cpp 文件中,以减少并行编译时间。 模板是显式实例化的。
此文件包含用于计算距离的内核的回调。
在整个库中,向量以 float * 指针的形式提供。 当批量处理(添加/搜索)多个向量时,大多数算法都可以优化。 在这种情况下,它们以矩阵形式传入。 当大小为 d 的 n 个向量作为 float * x 提供时,向量 i 的分量 j 为
x[ i * d + j ]
其中 0 <= i < n 且 0 <= j < d。 换句话说,矩阵始终是紧凑的。 指定矩阵的大小时,我们将其称为 n*d 矩阵,这意味着行优先存储。
I/O 函数可以读取/写入到文件名、文件句柄或抽象媒介的对象。
读取函数返回应使用 delete 释放的对象。 这些对象中的所有引用都归该对象所有。
倒排列表的定义 + 一些实现该接口的常见类。
由于 IVF(倒排文件)索引对于大规模用例非常有用,因此我们将与它们相关的一些函数分组到这个小库中。 大多数函数都适用于 IndexIVF 和嵌入在 IndexPreTransform 中的 IndexIVF。
在此文件中实现了 L2 和内积之外的额外度量
实现了一些神经网络层,主要用于支持 QINCo
定义一些将转换应用于向量集的对象,通常这些是预处理步骤。
-
struct ResidualQuantizer : public faiss::AdditiveQuantizer
- #include <ResidualQuantizer.h>
每个子量化器具有可变位数的残差量化器
残差质心存储在大的累积质心表中。代码表示为大小为 (n, M) 的非紧凑表或紧凑输出 (n, code_size)。
公共类型
-
using train_type_t = int
初始化
公共函数
-
ResidualQuantizer(size_t d, const std::vector<size_t> &nbits, Search_type_t search_type = ST_decompress)
-
ResidualQuantizer(size_t d, size_t M, size_t nbits, Search_type_t search_type = ST_decompress)
-
ResidualQuantizer()
-
virtual void train(size_t n, const float *x) override
训练残差量化器。
-
void initialize_from(const ResidualQuantizer &other, int skip_M = 0)
从其他量化器复制 M 个码本层级,从 skip_M 开始。
-
float retrain_AQ_codebook(size_t n, const float *x)
编码向量并计算码本,该码本最小化这些代码上的量化误差
- 参数:
x – 训练向量,大小 n * d
n – 训练向量的数量,n >= total_codebook_size
- 返回值:
返回新码本与旧代码的量化误差
-
virtual void compute_codes_add_centroids(const float *x, uint8_t *codes, size_t n, const float *centroids = nullptr) const override
编码一组向量
- 参数:
x – 要编码的向量,大小为 n * d
codes – 输出码,大小为 n * code_size
centroids – 要添加到 x 的质心,大小为 n * d
-
void refine_beam(size_t n, size_t beam_size, const float *residuals, int new_beam_size, int32_t *new_codes, float *new_residuals = nullptr, float *new_distances = nullptr) const
底层编码函数
- 参数:
n – 要处理的向量数量
residuals – 要编码的向量,大小为 (n, beam_size, d)
beam_size – 输入波束大小
new_beam_size – 输出波束大小 (应 <= K * beam_size)
new_codes – 输出码,大小为 (n, new_beam_size, m + 1)
new_residuals – 输出残差,大小为 (n, new_beam_size, d)
new_distances – 输出距离,大小为 (n, new_beam_size)
-
void refine_beam_LUT(size_t n, const float *query_norms, const float *query_cp, int new_beam_size, int32_t *new_codes, float *new_distances = nullptr) const
-
size_t memory_per_point(int beam_size = -1) const
波束搜索会消耗大量内存。此函数估计 refine_beam 使用的内存量,以调整批处理大小
- 参数:
beam_size – 如果 != -1,则覆盖波束大小
公共成员
-
train_type_t train_type = Train_progressive_dim
Train_* 标志的二进制或。
-
int niter_codebook_refine = 5
码本细化的迭代次数。
-
int max_beam_size = 5
用于训练和编码的波束大小
-
int use_beam_LUT = 0
使用 LUT 进行波束搜索
-
ApproxTopK_mode_t approx_topk_mode = ApproxTopK_mode_t::EXACT_TOPK
当前使用的近似 min-k 计算模式。 默认值为 EXACT_TOPK。
-
ProgressiveDimIndexFactory *assign_index_factory = nullptr
如果非 NULL,则使用此索引进行分配
公共静态属性
-
static const int Train_default = 0
常规 k 均值(最少量的计算)
-
static const int Train_progressive_dim = 1
渐进式维度聚类(默认设置)
-
static const int Train_refine_codebook = 2
在第一层估计之后,执行几次码本细化迭代。
-
static const int Train_top_beam = 1024
如果仅要在 beam 的第一个元素上训练 beam (速度更快但精度较低),请在 train_type 上设置此位。
-
static const int Skip_codebook_tables = 2048
设置此位以不在训练后自动计算码本表。
-
using train_type_t = int
-
struct ResidualQuantizer : public faiss::AdditiveQuantizer