文件 AdditiveQuantizer.h

namespace faiss

具有许多变体的 k-means 聚类的实现。

版权所有 (c) Facebook, Inc. 及其附属公司。

此源代码已获得 MIT 许可,该许可位于此源树的根目录中的 LICENSE 文件中。

IDSelector 旨在定义要处理的向量子集(用于删除或作为搜索子集)

PQ4 SIMD 打包和累积函数

基本内核使用 bbs = nb * 2 * 16 个向量累积 nq 个查询向量,并为此生成一个输出矩阵。这对于 nq * nb <= 4 很有用,否则寄存器溢出将变得太大。

这些函数的实现分布在 3 个 cpp 文件中,以减少并行编译时间。模板被显式实例化。

此文件包含用于计算距离的内核的回调。

在整个库中,向量以 float * 指针的形式提供。当在批处理中一起处理(添加/搜索)多个向量时,大多数算法都可以得到优化。在这种情况下,它们以矩阵的形式传递。当大小为 d 的 n 个向量以 float * x 的形式提供时,向量 i 的分量 j 为

x[ i * d + j ]

其中 0 <= i < n 且 0 <= j < d。换句话说,矩阵始终是紧凑的。当指定矩阵的大小时,我们称其为 n*d 矩阵,这意味着行优先存储。

I/O 函数可以读取/写入到文件名、文件句柄或抽象介质的对象。

读取函数返回应该使用 delete 释放的对象。这些对象中的所有引用都归该对象所有。

反向列表的定义 + 一些实现该接口的常见类。

由于 IVF(倒排文件)索引对于大规模用例非常有用,因此我们将与它们相关的一些函数分组到这个小型库中。大多数函数都可以在 IndexIVF 和嵌入在 IndexPreTransform 中的 IndexIVF 上运行。

此文件中实现了 L2 和内积之外的额外指标

实现了一些神经网络层,主要用于支持 QINCo

定义一些将转换应用于一组向量的对象。通常这些是预处理步骤。

struct AdditiveQuantizer : public faiss::Quantizer
#include <AdditiveQuantizer.h>

加性量化器的抽象结构

与乘积量化器(其中解码向量是 M 个子向量的串联)不同,加性量化器将 M 个子向量相加来获得解码向量。

faiss::LocalSearchQuantizerfaiss::ProductAdditiveQuantizerfaiss::ResidualQuantizer 继承

公共类型

enum Search_type_t

编码如何执行搜索以及如何编码向量。

枚举值 ST_decompress

解压缩数据库向量

枚举值 ST_LUT_nonorm

使用LUT,不包含范数(适用于IP或归一化向量)

枚举值 ST_norm_from_LUT

从查找表计算范数(代价为O(M^2))

枚举值 ST_norm_float

使用LUT,并将float32范数与向量一起存储

枚举值 ST_norm_qint8

使用LUT,并存储8位量化范数

枚举值 ST_norm_qint4
枚举值 ST_norm_cqint8

使用LUT,并存储非均匀量化范数

枚举值 ST_norm_cqint4
枚举值 ST_norm_lsq2x4

使用2x4位lsq作为范数量化器(用于快速扫描)

枚举值 ST_norm_rq2x4

使用2x4位rq作为范数量化器(用于快速扫描)

公共函数

void compute_codebook_tables()
uint64_t encode_norm(float norm) const

将范数编码为norm_bits位

uint32_t encode_qcint(float x) const

通过非均匀标量量化编码范数

float decode_qcint(uint32_t c) const

通过非均匀标量量化解码范数

AdditiveQuantizer(size_t d, const std::vector<size_t> &nbits, Search_type_t search_type = ST_decompress)
AdditiveQuantizer()

当d、M和nbits已经设置时,计算派生值

void set_derived_values()

训练范数量化器。

void train_norm(size_t n, const float *norms)
inline virtual void compute_codes(const float *x, uint8_t *codes, size_t n) const override

量化一组向量

参数:
  • x – 输入向量,大小为 n * d

  • codes – 输出代码,大小为 n * code_size

virtual void compute_codes_add_centroids(const float *x, uint8_t *codes, size_t n, const float *centroids = nullptr) const = 0

编码一组向量

参数:
  • x – 要编码的向量,大小为 n * d

  • codes – 输出代码,大小为 n * code_size

  • centroids – 要添加到 x 的质心,大小为 n * d

void pack_codes(size_t n, const int32_t *codes, uint8_t *packed_codes, int64_t ld_codes = -1, const float *norms = nullptr, const float *centroids = nullptr) const

将一系列代码打包为位紧凑格式

参数:
  • codes – 要打包的代码,大小为 n * code_size

  • packed_codes – 输出的位紧凑代码

  • ld_codes – codes 的前导维度

  • norms – 向量的范数 (大小为 n)。如果需要但未提供,则将计算

  • centroids – 要添加到 x 的质心,大小为 n * d

virtual void decode(const uint8_t *codes, float *x, size_t n) const override

解码一组向量

参数:
  • codes – 要解码的代码,大小为 n * code_size

  • x – 输出向量,大小为 n * d

virtual void decode_unpacked(const int32_t *codes, float *x, size_t n, int64_t ld_codes = -1) const

解码一组非打包格式的向量

参数:
  • codes – 要解码的代码,大小为 n * ld_codes

  • x – 输出向量,大小为 n * d

template<bool is_IP, Search_type_t effective_search_type>
float compute_1_distance_LUT(const uint8_t *codes, const float *LUT) const
void decode_64bit(idx_t n, float *x) const

用于 64 位字中代码的解码函数

virtual void compute_LUT(size_t n, const float *xq, float *LUT, float alpha = 1.0f, long ld_lut = -1) const

计算内积查找表。 用于质心搜索函数。

参数:
  • xq – 查询向量,大小 (n, d)

  • LUT – 查找表,大小 (n, total_codebook_size)

  • alpha – 计算 alpha * 内积

  • ld_lut – LUT 的前导维度

void knn_centroids_inner_product(idx_t n, const float *xq, idx_t k, float *distances, idx_t *labels) const

精确 IP 搜索

void compute_centroid_norms(float *norms) const

对于L2搜索,我们需要质心的L2范数。

参数:

norms – 输出范数表,大小为 total_codebook_size

void knn_centroids_L2(idx_t n, const float *xq, idx_t k, float *distances, idx_t *labels, const float *centroid_norms) const

精确的L2搜索,使用预计算的范数

virtual ~AdditiveQuantizer()

公共成员

size_t M

码本数量

std::vector<size_t> nbits

每个步骤的位数

std::vector<float> codebooks

码本

std::vector<uint64_t> codebook_offsets

码本#i存储在codebooks表中codebook_offsets[i]:codebook_offsets[i+1]行,大小为total_codebook_size乘以d

size_t tot_bits = 0

总位数(索引 + 范数)

size_t norm_bits = 0

为范数分配的位数

size_t total_codebook_size = 0

码本的大小,以向量为单位

bool only_8bit = false

是否所有 nbits = 8 (使用更快的解码器)

bool verbose = false

训练期间是否显示详细信息?

bool is_trained = false

是否已训练

std::vector<float> norm_tabs

用于ST_norm_lsq2x4和ST_norm_rq2x4的辅助数据,存储4位快速扫描的码本条目的范数

IndexFlat1D qnorm

存储和搜索范数

std::vector<float> centroid_norms

所有码本条目的范数(大小为 total_codebook_size)

std::vector<float> codebook_cross_products

所有码本条目与之前码本的点积,大小为 sum(codebook_offsets[m] * 2^nbits[m], m=0..M-1)

size_t max_mem_distances = 5 * (size_t(1) << 30)

使用束搜索的范数和距离矩阵可能会变得很大,因此使用此参数来控制可以分配的内存量。

Search_type_t search_type

也决定了代码中的内容。

float norm_min = NAN

范数量化的最小值/最大值

float norm_max = NAN