File GpuIndexIVFFlat.h

namespace faiss

实现带有多种变体的 k-means 聚类。

版权所有 (c) Facebook, Inc. 及其附属公司。

此源代码已根据 MIT 许可获得许可,该许可位于此源树的根目录中的 LICENSE 文件中。

IDSelector 旨在定义要处理的向量子集(用于删除或作为搜索子集)

PQ4 SIMD 打包和累加函数

基本内核使用 bbs = nb * 2 * 16 个向量累加 nq 查询向量,并为此生成一个输出矩阵。 对于 nq * nb <= 4 来说,这很有趣,否则寄存器溢出变得太大。

这些函数的实现分布在 3 个 cpp 文件中,以减少并行编译时间。 模板被显式实例化。

此文件包含用于计算距离的内核的回调。

在整个库中,向量以 float * 指针的形式提供。 当一起批量处理(添加/搜索)多个向量时,可以优化大多数算法。 在这种情况下,它们作为矩阵传入。 当 n 个大小为 d 的向量作为 float * x 提供时,向量 i 的分量 j 为

x[ i * d + j ]

其中 0 <= i < n 且 0 <= j < d。 换句话说,矩阵始终是紧凑的。 在指定矩阵大小时,我们称它为 n*d 矩阵,这意味着行优先存储。

I/O 函数可以读取/写入到文件名、文件句柄或抽象介质的对象。

读取函数返回应该使用 delete 取消分配的对象。 这些对象内的所有引用都归该对象所有。

倒排列表的定义 + 一些实现该接口的常见类。

由于 IVF(倒排文件)索引对于大规模用例非常有用,因此我们将与它们相关的一些函数分组到这个小型库中。 大多数函数都可以在 IndexIVF 和嵌入在 IndexPreTransform 中的 IndexIVF 上工作。

在此文件中,实现了 L2 和内积之外的额外度量标准

实现了一些神经网络层,主要用于支持 QINCo

定义了一些对象,这些对象将转换应用于一组向量。 这些通常是预处理步骤。

namespace gpu
struct GpuIndexIVFFlatConfig : public faiss::gpu::GpuIndexIVFConfig

公共成员

bool interleavedLayout = true

对 IVF 列表使用替代内存布局(当前为默认值)

class GpuIndexIVFFlat : public faiss::gpu::GpuIndexIVF
#include <GpuIndexIVFFlat.h>

GPU 实现的封装,行为类似于 faiss::IndexIVFFlat

公共函数

GpuIndexIVFFlat(GpuResourcesProvider *provider, const faiss::IndexIVFFlat *index, GpuIndexIVFFlatConfig config = GpuIndexIVFFlatConfig())

从预先存在的 faiss::IndexIVFFlat 实例构造,如果输入索引已训练,则将数据复制到给定的 GPU。

GpuIndexIVFFlat(GpuResourcesProvider *provider, int dims, idx_t nlist, faiss::MetricType metric = faiss::METRIC_L2, GpuIndexIVFFlatConfig config = GpuIndexIVFFlatConfig())

使用空的 flat 量化器构造新的实例;用户提供所需的 IVF 列表的数量。

GpuIndexIVFFlat(GpuResourcesProvider *provider, Index *coarseQuantizer, int dims, idx_t nlist, faiss::MetricType metric = faiss::METRIC_L2, GpuIndexIVFFlatConfig config = GpuIndexIVFFlatConfig())

使用提供的 CPU 或 GPU 粗量化器构造新的实例;用户提供所需的 IVF 列表的数量。

~GpuIndexIVFFlat() override
void reserveMemory(size_t numVecs)

在反向列表中为该数量的向量保留 GPU 内存。

void copyFrom(const faiss::IndexIVFFlat *index)

从给定的 CPU 索引初始化自身;将覆盖自身中的所有数据

void copyTo(faiss::IndexIVFFlat *index) const

将自身复制到给定的 CPU 索引;将覆盖索引实例中的所有数据

size_t reclaimMemory()

在添加向量后,可以调用此方法来回收设备内存,使其正好达到所需的数量。返回以字节为单位回收的空间

virtual void reset() override

清除所有反向列表,但保留粗糙的质心信息

virtual void updateQuantizer() override

如果用户手动更改 IVF 粗量化器的状态(例如,替换新实例或在训练范围之外更改粗量化器中的向量),则应调用此方法

virtual void train(idx_t n, const float *x) override

根据给定的向量数据训练粗量化器。

virtual void reconstruct_n(idx_t i0, idx_t n, float *out) const override

重建向量 i0 到 i0 + ni - 1

此函数可能未针对某些索引定义

参数:
  • i0 – 序列中第一个向量的索引

  • ni – 序列中向量的数量

  • recons – 重建的向量 (大小 ni * d)

保护函数

void setIndex_(GpuResources *resources, int dim, int nlist, faiss::MetricType metric, float metricArg, bool useResidual, faiss::ScalarQuantizer *scalarQ, bool interleavedLayout, IndicesOptions indicesOptions, MemorySpace space)

初始化适当的索引。

参数:

scalarQ – 可选的 ScalarQuantizer

保护属性

const GpuIndexIVFFlatConfig ivfFlatConfig_

我们的配置选项。

size_t reserveMemoryVecs_

所需的倒排列表内存预留。

std::shared_ptr<IVFFlat> index_

我们拥有的实例;包含倒排列表。