文件 NeuralNet.h

namespace faiss

实现了具有多种变体的 k-means 聚类。

版权所有 (c) Facebook, Inc. 及其附属公司。

此源代码已根据 MIT 许可证获得许可,该许可证位于此源代码树的根目录中的 LICENSE 文件中。

IDSelector 旨在定义要处理的向量子集(用于删除或作为搜索的子集)

PQ4 SIMD 打包和累积函数

基本内核使用 bbs = nb * 2 * 16 向量累积 nq 查询向量,并生成该向量的输出矩阵。 对于 nq * nb <= 4 来说,这很有趣,否则寄存器溢出将变得太大。

这些函数的实现分布在 3 个 cpp 文件中,以减少并行编译时间。 模板被显式实例化。

此文件包含用于计算距离的内核的回调。

在整个库中,向量以 float * 指针的形式提供。 当多个向量一起批量处理(添加/搜索)时,大多数算法都可以得到优化。 在这种情况下,它们作为矩阵传入。 当大小为 d 的 n 个向量以 float * x 的形式提供时,向量 i 的分量 j 为

x[ i * d + j ]

其中 0 <= i < n 且 0 <= j < d。 换句话说,矩阵始终是紧凑的。 当指定矩阵的大小时,我们将其称为 n*d 矩阵,这意味着行主存储。

I/O 函数可以读取/写入到文件名、文件句柄或抽象介质的对象。

读取函数返回的对象应该使用 delete 释放。 这些对象中的所有引用都由该对象拥有。

倒排列表的定义 + 一些实现该接口的常见类。

由于 IVF(倒排文件)索引对于大规模用例非常有用,因此我们将一些与它们相关的功能分组到这个小库中。 大多数函数都适用于 IndexIVF 和嵌入在 IndexPreTransform 中的 IndexIVF。

在此文件中实现了 L2 和内积之外的额外指标

实现了一些神经网络层,主要用于支持 QINCo

定义了一些将转换应用于一组向量的对象 通常这些是预处理步骤。

struct QINCoStep

公共函数

QINCoStep(int d, int K, int L, int h)
inline nn::FFN &get_residual_block(int i)
nn::Int32Tensor2D encode(const nn::Tensor2D &xhat, const nn::Tensor2D &x, nn::Tensor2D *residuals = nullptr) const

使用初始估计值 xhat 对一组向量 x 进行编码。可以选择返回要添加到 xhat 的增量,以形成新的 xhat

nn::Tensor2D decode(const nn::Tensor2D &xhat, const nn::Int32Tensor2D &codes) const

公共成员

int d

d:输入维度,K:码本大小,L:残差块数量,h:隐藏层维度

int K
int L
int h
nn::Embedding codebook
nn::Linear MLPconcat
std::vector<nn::FFN> residual_blocks
struct NeuralNetCodec

faiss::QINCo 继承

公共函数

inline NeuralNetCodec(int d, int M)
virtual nn::Tensor2D decode(const nn::Int32Tensor2D &codes) const = 0
virtual nn::Int32Tensor2D encode(const nn::Tensor2D &x) const = 0
inline virtual ~NeuralNetCodec()

公共成员

int d
int M
struct QINCo : public faiss::NeuralNetCodec

公共函数

QINCo(int d, int K, int L, int M, int h)
inline QINCoStep &get_step(int i)
virtual nn::Tensor2D decode(const nn::Int32Tensor2D &codes) const override
virtual nn::Int32Tensor2D encode(const nn::Tensor2D &x) const override
inline virtual ~QINCo()

公共成员

int K
int L
int h
nn::Embedding codebook0
std::vector<QINCoStep> steps
int d
int M
namespace nn

类型定义

using Tensor2D = Tensor2DTemplate<float>
using Int32Tensor2D = Tensor2DTemplate<int32_t>
template<typename T>
struct Tensor2DTemplate

公共函数

Tensor2DTemplate(size_t n0, size_t n1, const T *data = nullptr)
Tensor2DTemplate &operator+=(const Tensor2DTemplate&)
Tensor2DTemplate column(size_t j) const

获取第 #j 列作为一个单列 Tensor2D

inline size_t numel() const
inline T *data()
inline const T *data() const

公共成员

size_t shape[2]
std::vector<T> v
struct Linear
#include <NeuralNet.h>

nn.Linear 的最小翻译

公共函数

Linear(size_t in_features, size_t out_features, bool bias = true)
Tensor2D operator()(const Tensor2D &x) const

公共成员

size_t in_features
size_t out_features
std::vector<float> weight
std::vector<float> bias
struct Embedding
#include <NeuralNet.h>

nn.Embedding 的最小翻译

公共函数

Embedding(size_t num_embeddings, size_t embedding_dim)
Tensor2D operator()(const Int32Tensor2D&) const
inline float *data()
inline const float *data() const

公共成员

size_t num_embeddings
size_t embedding_dim
std::vector<float> weight
struct FFN
#include <NeuralNet.h>

前馈层扩展到隐藏维度,应用 ReLU 非线性,然后映射回原始维度

公共函数

inline FFN(int d, int h)
Tensor2D operator()(const Tensor2D &x) const

公共成员

Linear linear1
Linear linear2