• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

(一)Deep-One-Class-Classification论文解读和代码

武飞扬头像
恒友成
帮助1


欢迎访问个人网络日志🌹🌹知行空间🌹🌹


背景

神经网络在多类别数据上取得了不错的成果,如图像分类,目标检测,图像分割中,但面对实际中的应用,往往面对训练数据少,缺少某个类别数据的挑战。考虑如医学图像的辅助诊断,有可能只能提供健康类别的图像,但要算法识别出异常的图像,这时应用神经网络做分类,面对单个类别该如何训练呢?实际生活中存在大量的此种应用场景,如异常检测,网络入侵检测,欺诈检测等。

1.简介

论文:Deep One-Class Classification
Lukas

代码:PyTorch Implementation of Deep SVDD

这篇论文是德国柏林洪堡大学的Lukas Ruff发表在ICML2018上的工作。柏林洪堡大学已诞生57位诺贝尔奖获得者,实力惊人。这篇论文主要的工作是提出了Deep Support Vector Data Description(Deep SVDD),该方法可以直接基于异常目标函数对单类别数据进行训练,区别于以往的先在大规模数据集训练再在单类别数据集上微调的做法。

如异常检测,正常的数据服从高斯分布,异常的数据不服从高斯分布,模型训练的目标就是准确表征“正常”,与模型偏差较大的即异常点。只有正常类别的数据做训练,因此也可以看做单分类问题One-Class Classification

对于图像数据,其维度通常较大,传统的单分类方法如One-Class SVMKernel Density Estimation很难取得理想的效果,且还需要先对数据做大量的特征工程的工作。

Deep SVDD通过寻找一个最小球面,使该最小封闭球面包围数据的网络表征, 来训练一个神经网络模型。最小化训练数据表征的封闭球面可以使网络提取出变化数据中的共同特征。

学新通

2.相关工作

2.1基于核的单分类方法

训练数据 χ \chi χ所属的空间表示为: χ ⊆ R d \chi \subseteq \mathbb{R}^d χRd k k k表示正定核(PSD kernel), k : χ × χ → [ 0 , ∞ ) k:\chi\times \chi \rightarrow[0, \infty) k:χ×χ[0, ),数据的联合再生希尔伯特空间(Reproducing kernel Hilbert space)RKHS F k \mathcal{F_k} Fk ϕ k : χ → F k \phi_k:\chi\rightarrow\mathcal{F_k} ϕk:χFk表示为数据特征的映射。因此 k ( x , x ~ ) = < ϕ k ( x ) , ϕ k ( x ~ ) > F k k(x, \tilde{x})=<\phi_k(x),\phi_k(\tilde{x})>_{\mathcal{F}_k} k(x,x~)=<ϕk(x),ϕk(x~)>Fk,上式中 < ⋅ , ⋅ > F k <\cdot, \cdot>_{\mathcal{F}_k} <,>Fk表示再生希尔伯特空间上的点积。

最常用的单分类方法可能是One-Class SVM,其在数据的特征空间中寻找最大间距超平面。

SVDD(Support Vector Data Description)与OC-SVM类似,但SVDD是通过学习一个超球面而非像SVM那样学习一个超平面。SVDD的目标是寻找一个中心为 c c c, c ∈ F k c\in\mathcal{F}_k cFk半径为 R R R, R > 0 R\gt0 R>0的最小超球面,使其在特征空间 F k \mathcal{F}_k Fk中包围大部分数据。在超球面之外的数据就是异常数据。

常规的SVDDOC-SVM需要对数据先进行特征工程处理,且基于核的方法计算扩展性差。

2.2深度学习方法在异常检测中的应用

深度学习在异常检测Anomaly Detection DeepAD上的应用方式可以分成两种,一种是混合式的,数据的特征表征先单独学习,然后再使用提取的特征在OC-SVM等浅层的方法上实现分类。另外一种是全深度学习的方法,直接基于异常检测的目标函数进行表征学习。Deep SVDD提出了一种全深度学习的方法用于无监督异常检测。Deep SVDD通过最小化网络输出的超球面体积来训练神经网络以提取数据分布中的公共特征。

深度自编码是基于深度学习异常检测的主流方法。基于深度自编码的方法通常通过最小化重建误差来训练 ∣ ∣ x − x ^ ∣ ∣ 2 ||x-\hat{x}||^2 xx^2。自编码器通过重建数据来学习正常数据间的共同特征,异常数据不包含这些特征而导致重建误差较大,由此识别出异常数据。

异常检测常用的编码器有去噪自编码器,稀疏自编码器,变分自编码器,深度卷积自编码器等。自编码器的目标是数据降维,不能直接应用在AD上,要选择自编码器合适的数据压缩度。可以使自编码器的输入输出具有相同的尺寸,也可以将输入压缩成一个常数,选择合适的压缩比比较困难。

除了自编码器,生成对抗网络GAN也有在AD上的应用。

3.Deep SVDD

3.1目标函数

与单分类目标一起同时学习数据的表征,使用两个神经网络的联合训练以把数据映射到最小包围超球面上。

输入空间: χ ⊆ R d \chi \subseteq \mathbb{R}^d χRd
输出空间: F ⊆ R p \mathcal{F} \subseteq \mathbb{R}^p FRp
X \mathcal{X} X F \mathcal{F} F的映射神经网络: ϕ ( ⋅ ; W ) : X → F \phi(\cdot;\mathcal{W}):\mathcal{X}\rightarrow\mathcal{F} ϕ(;W):XF,有 L ∈ N L\in\mathbb{N} LN个隐含层,权重分别为 W = { W 1 , . . . , W L } \mathcal{W}=\{W^1,...,W^L\} W={W1,...,WL}, W l W^{\mathcal{l}} Wl表示 l ∈ [ 1 , . . . , L ] \mathcal{l}\in [1,...,L] l[1,...,L]层的权重。Deep SVDD的目标是同时学习网络参数以求得输出空间 F \mathcal{F} F中半径为 R R R中心为 c c c的最小体积包围圆。

X \mathcal{X} X上的训练数据 D n = { x 1 , . . . , x n } \mathcal{D}_n=\{x_1,...,x_n\} Dn={x1,...,xn}可定义Deep SVDDsoft-boundary目标函数:
J s o f t ( W , R ) = min ⁡ R , W R 2 1 v n ∑ i = 1 n m a x { 0 , ∣ ∣ ϕ ( x i ; W ) − c ∣ ∣ 2 } λ 2 ∑ l = 1 L ∣ ∣ W l ∣ ∣ F 2 J_{soft}(\mathcal{W},R)=\min\limits_{R,\mathcal{W}}R^2 \frac{1}{\mathcal{v}{n}}\sum\limits_{i=1}^{n}max\{0,||\phi(x_i;\mathcal{W})-c||^2\} \frac{\lambda}{2}\sum\limits_{\mathcal{l}=1}^{L}||\mathcal{W}^{\mathcal{l}}||_F^2 Jsoft(W,R)=R,WminR2 vn1i=1nmax{0,ϕ(xi;W)c2} 2λl=1LWlF2

上式中,最小化 R 2 R^2 R2就能最小化超球面,第二项是对超球面外的点的惩罚,超参数 v ∈ ( 0 , 1 ] \mathcal{v}\in(0,1] v(0,1]控制着球的体积与边界的松弛程度,类似SVM中的松弛变量,最后一项是训练参数的正则损失。

当训练数据中即有正样本又有负样本时,可以使用上述的损失函数进行训练,但若训练数据中仅有一个类别,对训练数据做单分类的时候,可以将上述损失函数简化为:

J O C ( W ) min ⁡ W 1 n ∑ i = 1 n ∣ ∣ ϕ ( x i ; W ) − c ∣ ∣ 2 λ 2 ∑ l = 1 L ∣ ∣ W l ∣ ∣ F 2 J_{OC}(\mathcal{W})\min\limits_{\mathcal{W}}\frac{1}{\mathcal{n}}\sum\limits_{i=1}^{n}||\phi(x_i;\mathcal{W})-c||^2 \frac{\lambda}{2}\sum\limits_{\mathcal{l}=1}^{L}||\mathcal{W}^{\mathcal{l}}||_F^2 JOC(W)Wminn1i=1nϕ(xi;W)c2 2λl=1LWlF2

测试时网络输出的应用:
s ( x ) = ∣ ∣ ϕ ( x ; W ∗ ) − c ∣ ∣ 2 s(x)=||\phi(x;\mathcal{W^*})-c||^2 s(x)=ϕ(x;W)c2

计算网络的输出与训练数据上的中心点 c c c之间的距离,当小于某个阈值 s s s时认为是符合同一个类别的,否则为其他类别。

3.2几个重要的命题

  • 命题1:零值权重解 W 0 \mathcal{W}^0 W0表示网络权重都为0,对于 0 0 0值权重,网络对于任何输入都会有相同的输出 c 0 c_0 c0,即 ϕ ( x ; W 0 ) = ϕ ( x ~ ; W 0 ) = : c 0 ∈ F \phi(x;\mathcal{W}_0)=\phi(\tilde{x};\mathcal{W}_0)=:c_0\in \mathcal{F} ϕ(x;W0)=ϕ(x~;W0)=:c0F,根据前面的推导可以知道当 c = c 0 c=c_0 c=c0时,目标函数有最优解,此时 W ∗ = W 0 且 R ∗ = 0 \mathcal{W}^*=\mathcal{W}_0且R^*=0 W=W0R=0.因此,在优化目标函数时不能将超球面的中心当做优化变量,否则将导致零值权重,此时超球面半径为零,也称这种现象为超球面塌陷。在训练网络时,超球面中心可通过以下方式指定:取在初始网络权重上训练数据输出的均值。

  • 命题2:不能有偏置项,对于选择的超球面中心 c ∈ F c\in \mathcal{F} cF,如果网络的隐含层有偏置项,将会导致目标函数 J s o f t 和 J O C J_{soft}和J_{OC} JsoftJOC的最优解为 R ∗ = 0 , ϕ ( x ; W ∗ ) = c R^*=0,\phi(x;\mathcal{W^*})=c R=0,ϕ(x;W)=c,同样导致超球面塌陷。网络的某个隐含层可表示为 z l ( x ) = σ l ( W l ∗ z l − 1 ( x ) b l ) z^{l}(x)=\sigma^{l}(\mathcal{W^l}*z^{l-1}(x) b^l) zl(x)=σl(Wlzl1(x) bl),网络的参数 W ∗ = 0 \mathcal{W}^*=0 W=0时, z l ( x ) = σ ( b l ) z^{l}(x)=\sigma{(b^l)} zl(x)=σ(bl),对于任意的输入都有相同的输出,因此可以选择 b l b^l bl使得 ϕ ( x ; W ∗ ) = c \phi(x;\mathcal{W^*})=c ϕ(x;W)=c,这时将同样导致 R ∗ = 0 R^*=0 R=0,造成超球面塌陷。

  • 命题3:不能使用有界的激活函数,假设有上界的激活函数, B : = s u p z σ ( z ) ≠ 0 B:=sup_z\sigma(z)\neq0 B:=supzσ(z)=0,特征 k k k对于所有的输入数据都为正,即 z i ( k ) > 0 z_i^{(k)}\gt0 zi(k)>0对于 i = 1 , . . . , n i=1,...,n i=1,...,n,那么对于任意的 ϵ > 0 \epsilon>0 ϵ>0都存在 w k \mathcal{w_k} wk使得 s u p i ∣ σ ( w k z i ( k ) ) − B ∣ < ϵ sup_i|\sigma(\mathcal{w_k}z_i^{(k)})-B|\lt\epsilon supiσ(wkzi(k))B<ϵ对于选定的超球面中心 c c c由与激活函数的有界性将同样会导致特征 k k k上超球面的半径为 r r r,导致超球面塌陷。

  • 命令4:松弛变量 v v v的性质,对于 J s o f t J_{soft} Jsoft目标函数中的超参数 v ∈ ( 0 , 1 ] v\in(0,1] v(0,1],其反映了对异常点的容许上界和对正常样本数据的容许下界。

4.代码分析

本文作者使用的数据集为MNISTCIFA10,网络结构使用的是Lecun1998年提出的**LeNet**,包括两个卷积两个池化和一层全连接层。

网络结构:

class MNIST_LeNet(BaseNet):
    """
    因为有全连接层,所有不同的输入size导致fc的输入大小都不一样
    故定义了`MNIST_LeNet`和`CIFA10_LeNet`
    """
    def __init__(self):
        super().__init__()

        self.rep_dim = 32
        self.pool = nn.MaxPool2d(2, 2)

        self.conv1 = nn.Conv2d(1, 8, 5, bias=False, padding=2)
        self.bn1 = nn.BatchNorm2d(8, eps=1e-04, affine=False)
        self.conv2 = nn.Conv2d(8, 4, 5, bias=False, padding=2)
        self.bn2 = nn.BatchNorm2d(4, eps=1e-04, affine=False)
        self.fc1 = nn.Linear(4 * 7 * 7, self.rep_dim, bias=False)

    def forward(self, x):
        x = self.conv1(x)
        x = self.pool(F.leaky_relu(self.bn1(x)))
        x = self.conv2(x)
        x = self.pool(F.leaky_relu(self.bn2(x)))
        x = x.view(x.size(0), -1)
        x = self.fc1(x)
        return x
学新通

Deep SVDD定义了预训练的方法。其基于自编码器来实现,然后使用自编码器中对应的网络权重来初始化对应的网络参数。自编码器网络结构:

class CIFAR10_LeNet_Autoencoder(BaseNet):
    """
    先将图片下采样,再上采样,恢复为原来尺寸
    """
    def __init__(self):
        super().__init__()

        self.rep_dim = 128
        self.pool = nn.MaxPool2d(2, 2)

        # Encoder (must match the Deep SVDD network above)
        self.conv1 = nn.Conv2d(3, 32, 5, bias=False, padding=2)
        nn.init.xavier_uniform_(self.conv1.weight, gain=nn.init.calculate_gain('leaky_relu'))
        self.bn2d1 = nn.BatchNorm2d(32, eps=1e-04, affine=False)
        self.conv2 = nn.Conv2d(32, 64, 5, bias=False, padding=2)
        nn.init.xavier_uniform_(self.conv2.weight, gain=nn.init.calculate_gain('leaky_relu'))
        self.bn2d2 = nn.BatchNorm2d(64, eps=1e-04, affine=False)
        self.conv3 = nn.Conv2d(64, 128, 5, bias=False, padding=2)
        nn.init.xavier_uniform_(self.conv3.weight, gain=nn.init.calculate_gain('leaky_relu'))
        self.bn2d3 = nn.BatchNorm2d(128, eps=1e-04, affine=False)
        self.fc1 = nn.Linear(128 * 4 * 4, self.rep_dim, bias=False)
        self.bn1d = nn.BatchNorm1d(self.rep_dim, eps=1e-04, affine=False)

        # Decoder
        self.deconv1 = nn.ConvTranspose2d(int(self.rep_dim / (4 * 4)), 128, 5, bias=False, padding=2)
        nn.init.xavier_uniform_(self.deconv1.weight, gain=nn.init.calculate_gain('leaky_relu'))
        self.bn2d4 = nn.BatchNorm2d(128, eps=1e-04, affine=False)
        self.deconv2 = nn.ConvTranspose2d(128, 64, 5, bias=False, padding=2)
        nn.init.xavier_uniform_(self.deconv2.weight, gain=nn.init.calculate_gain('leaky_relu'))
        self.bn2d5 = nn.BatchNorm2d(64, eps=1e-04, affine=False)
        self.deconv3 = nn.ConvTranspose2d(64, 32, 5, bias=False, padding=2)
        nn.init.xavier_uniform_(self.deconv3.weight, gain=nn.init.calculate_gain('leaky_relu'))
        self.bn2d6 = nn.BatchNorm2d(32, eps=1e-04, affine=False)
        self.deconv4 = nn.ConvTranspose2d(32, 3, 5, bias=False, padding=2)
        nn.init.xavier_uniform_(self.deconv4.weight, gain=nn.init.calculate_gain('leaky_relu'))

    def forward(self, x):
        x = self.conv1(x)
        x = self.pool(F.leaky_relu(self.bn2d1(x)))
        x = self.conv2(x)
        x = self.pool(F.leaky_relu(self.bn2d2(x)))
        x = self.conv3(x)
        x = self.pool(F.leaky_relu(self.bn2d3(x)))
        x = x.view(x.size(0), -1)
        x = self.bn1d(self.fc1(x))
        x = x.view(x.size(0), int(self.rep_dim / (4 * 4)), 4, 4)
        x = F.leaky_relu(x)
        x = self.deconv1(x)
        x = F.interpolate(F.leaky_relu(self.bn2d4(x)), scale_factor=2)
        x = self.deconv2(x)
        x = F.interpolate(F.leaky_relu(self.bn2d5(x)), scale_factor=2)
        x = self.deconv3(x)
        x = F.interpolate(F.leaky_relu(self.bn2d6(x)), scale_factor=2)
        x = self.deconv4(x)
        x = torch.sigmoid(x)
        return x
学新通

可以看到网络中使用的激活函数是没有上界的leaky_relu
f ( x ) = { x 0.01 x f(x)=\left\{\begin{matrix} x\\ 0.01x \end{matrix}\right. f(x)={x0.01x

自编码器网络的损失函数是基于原图与自编码器的输出计算均方误差来实现的:

# src/optim/ae_trainer.py line:57-59
outputs = ae_net(inputs)
scores = torch.sum((outputs - inputs) ** 2, dim=tuple(range(1, outputs.dim())))
loss = torch.mean(scores)

自编码器预训练的权重会作为LeNet网络的初始化权重,见init_network_weights_from_pretraining方法:

# src/deepSVDD.py line:100-114
def init_network_weights_from_pretraining(self):
    """Initialize the Deep SVDD network weights from the encoder weights of the pretraining autoencoder."""

    net_dict = self.net.state_dict()
    ae_net_dict = self.ae_net.state_dict()

    # Filter out decoder network keys
    ae_net_dict = {k: v for k, v in ae_net_dict.items() if k in net_dict}
    # Overwrite values in the existing state_dict
    net_dict.update(ae_net_dict)
    # Load the new state_dict
    self.net.load_state_dict(net_dict)

初始化网络参数后,超球面的中心c的计算在src/optim/deepSVDD_trainer.pytrain方法中,其计算方式为:

def init_center_c(self, train_loader: DataLoader, net: BaseNet, eps=0.1):
    """Initialize hypersphere center c as the mean from an initial forward pass on the data."""
    n_samples = 0
    c = torch.zeros(net.rep_dim, device=self.device)

    net.eval()
    with torch.no_grad():
        for data in train_loader:
            # get the inputs of the batch
            inputs, _, _ = data
            inputs = inputs.to(self.device)
            outputs = net(inputs)
            n_samples  = outputs.shape[0]
            c  = torch.sum(outputs, dim=0)

    c /= n_samples

    # If c_i is too close to 0, set to  -eps. Reason: a zero unit can be trivially matched with zero weights.
    c[(abs(c) < eps) & (c < 0)] = -eps
    c[(abs(c) < eps) & (c > 0)] = eps

    return c
学新通

DeepSVDD的代码的执行过程

定义dataset
自编码器训练
初始化网络权重
计算超球中心c
初始化超球R=0
训练单分类网络
测试:计算数据与超球面中心距离

参考资料


欢迎访问个人网络日志🌹🌹知行空间🌹🌹


这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhgceche
系列文章
更多 icon
同类精品
更多 icon
继续加载