文件 ResidualQuantizer.h

namespace faiss

具有许多变体的k-means聚类实现。

版权所有 (c) Facebook, Inc. 及其附属公司。

此源代码根据 MIT 许可证授权,该许可证位于此源代码树的根目录下的 LICENSE 文件中。

IDSelector旨在定义要处理的向量子集(用于移除或作为搜索的子集)

PQ4 SIMD 打包和累积函数

基本内核使用 bbs = nb * 2 * 16 个向量累积 nq 查询向量,并为此生成一个输出矩阵。 这对于 nq * nb <= 4 很有趣,否则寄存器溢出会变得太大。

这些函数的实现分布在 3 个 cpp 文件中,以减少并行编译时间。 模板是显式实例化的。

此文件包含用于计算距离的内核的回调。

在整个库中,向量以 float * 指针的形式提供。 当批量处理(添加/搜索)多个向量时,大多数算法都可以优化。 在这种情况下,它们以矩阵形式传入。 当大小为 d 的 n 个向量作为 float * x 提供时,向量 i 的分量 j 为

x[ i * d + j ]

其中 0 <= i < n 且 0 <= j < d。 换句话说,矩阵始终是紧凑的。 指定矩阵的大小时,我们将其称为 n*d 矩阵,这意味着行优先存储。

I/O 函数可以读取/写入到文件名、文件句柄或抽象媒介的对象。

读取函数返回应使用 delete 释放的对象。 这些对象中的所有引用都归该对象所有。

倒排列表的定义 + 一些实现该接口的常见类。

由于 IVF(倒排文件)索引对于大规模用例非常有用,因此我们将与它们相关的一些函数分组到这个小库中。 大多数函数都适用于 IndexIVF 和嵌入在 IndexPreTransform 中的 IndexIVF。

在此文件中实现了 L2 和内积之外的额外度量

实现了一些神经网络层,主要用于支持 QINCo

定义一些将转换应用于向量集的对象,通常这些是预处理步骤。

struct ResidualQuantizer : public faiss::AdditiveQuantizer
#include <ResidualQuantizer.h>

每个子量化器具有可变位数的残差量化器

残差质心存储在大的累积质心表中。代码表示为大小为 (n, M) 的非紧凑表或紧凑输出 (n, code_size)。

公共类型

using train_type_t = int

初始化

公共函数

ResidualQuantizer(size_t d, const std::vector<size_t> &nbits, Search_type_t search_type = ST_decompress)
ResidualQuantizer(size_t d, size_t M, size_t nbits, Search_type_t search_type = ST_decompress)
ResidualQuantizer()
virtual void train(size_t n, const float *x) override

训练残差量化器。

void initialize_from(const ResidualQuantizer &other, int skip_M = 0)

从其他量化器复制 M 个码本层级,从 skip_M 开始。

float retrain_AQ_codebook(size_t n, const float *x)

编码向量并计算码本,该码本最小化这些代码上的量化误差

参数:
  • x – 训练向量,大小 n * d

  • n – 训练向量的数量,n >= total_codebook_size

返回值:

返回新码本与旧代码的量化误差

virtual void compute_codes_add_centroids(const float *x, uint8_t *codes, size_t n, const float *centroids = nullptr) const override

编码一组向量

参数:
  • x – 要编码的向量,大小为 n * d

  • codes – 输出码,大小为 n * code_size

  • centroids – 要添加到 x 的质心,大小为 n * d

void refine_beam(size_t n, size_t beam_size, const float *residuals, int new_beam_size, int32_t *new_codes, float *new_residuals = nullptr, float *new_distances = nullptr) const

底层编码函数

参数:
  • n – 要处理的向量数量

  • residuals – 要编码的向量,大小为 (n, beam_size, d)

  • beam_size – 输入波束大小

  • new_beam_size – 输出波束大小 (应 <= K * beam_size)

  • new_codes – 输出码,大小为 (n, new_beam_size, m + 1)

  • new_residuals – 输出残差,大小为 (n, new_beam_size, d)

  • new_distances – 输出距离,大小为 (n, new_beam_size)

void refine_beam_LUT(size_t n, const float *query_norms, const float *query_cp, int new_beam_size, int32_t *new_codes, float *new_distances = nullptr) const
size_t memory_per_point(int beam_size = -1) const

波束搜索会消耗大量内存。此函数估计 refine_beam 使用的内存量,以调整批处理大小

参数:

beam_size – 如果 != -1,则覆盖波束大小

公共成员

train_type_t train_type = Train_progressive_dim

Train_* 标志的二进制或。

int niter_codebook_refine = 5

码本细化的迭代次数。

int max_beam_size = 5

用于训练和编码的波束大小

int use_beam_LUT = 0

使用 LUT 进行波束搜索

ApproxTopK_mode_t approx_topk_mode = ApproxTopK_mode_t::EXACT_TOPK

当前使用的近似 min-k 计算模式。 默认值为 EXACT_TOPK。

ProgressiveDimClusteringParameters cp

聚类参数

ProgressiveDimIndexFactory *assign_index_factory = nullptr

如果非 NULL,则使用此索引进行分配

公共静态属性

static const int Train_default = 0

常规 k 均值(最少量的计算)

static const int Train_progressive_dim = 1

渐进式维度聚类(默认设置)

static const int Train_refine_codebook = 2

在第一层估计之后,执行几次码本细化迭代。

static const int Train_top_beam = 1024

如果仅要在 beam 的第一个元素上训练 beam (速度更快但精度较低),请在 train_type 上设置此位。

static const int Skip_codebook_tables = 2048

设置此位以在训练后自动计算码本表。