《Residual Entropy-based Graph Generative Algorithms》论文解读

论文传送门:click here

论文动机

本文是AAMAS 2022中的一篇工作。

本篇文章的核心工作为:设计了一种通过原图构造防御图的算法(非神经网络)。其意义在于通过对原始graph进行加边处理使得其结构信息更加显著,从而帮助模型更好的学习到structure信息。

文章通过1-dimensional structure entropy和2-dimensional structure entropy定义出残差熵(Residual Entropy),这个熵反映了图结构所携带的信息——本文希望最大化这个量。

文章通过残差熵的定义推导出使得残差熵增大的条件,进而根据这个条件对图进行加边处理,旨在提高图的残差熵,从而得到防御图

我之前看的论文大多是基于1-dimensional structure entropy,在架构上进行大大小小的改动。而这边文章从底层使用了一种不同的度量方法,因此我还是简单总结一下这篇文章的主要内容。

这篇文章中从定义推导方法的过程值得借鉴,尽管我感觉有些不够严谨,但这个思路是能够将一个工作顺下来的。

补:后来发现残差熵这个概念在REM: From Structural Entropy To Community Structure Deception中提出,且部分结论在这里面也有。


方法论

残差熵

先介绍本文提出残差熵用到的两个熵计算方法:

  • 1-dimensional structure entropy: 1-dimensional structure entropy is defined by the average codeword length of all interactions from nodes in $V$。
    $$
    \mathcal H(G)=-\sum_{v_i\in V}\frac{d_i}{2|E|}\log_2\frac{d_i}{2|E|}
    $$
    其中 $d_i$ 是节点 $v_i$ 的度,$E$ 是总边数。这个度量方式没有假设任何社区结构

  • 2-dimensional structure entropy: 2-dimensional structure entropy is defined by the average encode length of all calls with community partition $P$。
    $$
    \mathcal H_P(G)=\sum_{j=1}^L\left(-\frac{\nu_j}{2|E|}\mathcal H(G|X_j)-\frac{g_j}{2|E|}\log_2\frac{\nu_j}{2|E|}\right)
    $$
    $P=\{X_1,\dots,X_L\}$ 是对节点的一个分割。 $\mathcal H(G|X_j) = -\sum_{v_i\in X_j} \frac{d_i}{v_j}\log_2\frac{d_i}{v_j}$,$v_i$ 代表第 $i$ 个分割团 $X_i$ 的度之和;$g_i$ 代表只有一个端点在 $X_i$ 内的边数(其实就是连向外面的边数)。这个结构熵反映了一直社区机构后的信息熵。

接下来便可以引出残差熵(已normalized)了:
$$
\rho p:=R_{P}/\mathcal H(G), \quad R_P=\mathcal H(G)-\mathcal H_P(G)=\frac{v_j-g_j}{2|E|}\log_2\frac{v_j}{2|E|}
$$
残差熵表示有关图社区结构的信息量。一个相对高的残差熵表示分区 $P$ 包含更多的信息。

如何提高残差熵

提高残差熵无非就两个思路:分子越大越好,分母越小越好。文章给出了几个引理和推论,简单来说如下:

  • 对分割 $X_i$ 内部加边后 $R_P$ 会增加更多。
  • 待加边两个端点的度之和越大,则加边后 $H$ 越小。
  • 若度之和相等,则待加边两个端点的度之差越小,加边后 $H$ 越小。

根据以上三种规则,我们就可以实现加边算法了。

防御图构建算法

文中提到了两种攻击方法:无目标攻击(对全图进行攻击),有目标共计(对某一partial进行攻击)。

两个算法比较相似,只不过是作用域不同。核心思想与之前介绍的方法是一致的:目标加边集合的选取方法为:

具体就不过多介绍了,伪代码比较清晰。


实验设置与结果

文章使用了两种大类评估方法:

  • 不需要feature:Louvain、DeepWalk、SCD
  • 需要feature:GCN、GAT、SSP、GCN-LPA

节点分类的评估指标采取标准化的互信息(Normalized Mutual Information,NMI)。

有目的加边 or 随机加边

作者用随机加边作为对比,证明了加边的有效性(有目的当然会比随机加边好)。

对无目标攻击的抵御

攻击方法为REM和DICE。流程为先攻击后训练(即对不完全正确的图结构进行学习)。怎么有的攻击完了反而更好,还好了不少。

对有目标攻击的抵御

攻击方法为FDA和RND,流程与上面一样。


一些想法

本方法感觉还是有一些局限,比如只考虑了加边。或许这样方法的表现上线就已经被原图结构进行限制了。

另外一个重要的点是添加的边数是超参数 $K$ 控制的(或者是是实验中 $K=p|E|$ 的 $p$),所以其效果一定程度上还是依赖于人的参数设计的。

  • 版权声明: 本博客所有文章除特别声明外,著作权归作者所有。转载请注明出处!
Runtime Display
  • Copyrights © 2023-2024 Lucas
  • 访问人数: | 浏览次数:

请我喝杯咖啡吧~

支付宝
微信