Fork me on GitHub

Hi, 很高兴见到你 置顶


        
欢迎来到我的博客!

  在这里我将分享我的学习心得some projects吉他谱一些个人想法等等。希望能够对你有所帮助。

  创建博客博客的初衷,一是希望有个个人空间来存储我的经历,博客就是很好的选择;二是我希望我的心得能够让更多人看见,帮助一些人少走一些弯路——在学习过程中我被各路“开源”大佬的文章启发,因此我也想将我的思考“开源”出去。

  整个博客使用hexo搭建,主题是ayer。这两个链接我放在了“友链”中供大家参考。此外也运用了如播放器、搜索等功能,大家可自行去探索hexo的诸多功能。

 那么,enjoy!!!; -)

所以你是被谁骗到这里的?

既然来了,Why not leave a comment ? (要先点进此博客)

2023.07.17

《Understanding over-squashing and bottlenecks on graphs via curvature》论文浅析

论文传送门:click here

论文简述

本文是ICLR 2022中的一篇高分工作(openreview:10/8/8/8)。

本文从理论上提出了一种Ricci曲率计算方法,并根据对其的分析指出重要结论:负曲率是导致瓶颈的原因。而后将其与Cheeger constant联系,说明了他们一定程度上是比较相似的,后期也使用Cheeger constant来说明随机游走重建方法的劣势。 阅读更多...

《Residual Entropy-based Graph Generative Algorithms》论文解读

论文传送门:click here

论文动机

本文是AAMAS 2022中的一篇工作。

本篇文章的核心工作为:设计了一种通过原图构造防御图的算法(非神经网络)。其意义在于通过对原始graph进行加边处理使得其结构信息更加显著,从而帮助模型更好的学习到structure信息。

文章通过1-dimensional structure entropy和2-dimensional structure entropy定义出残差熵(Residual Entropy),这个熵反映了图结构所携带的信息——本文希望最大化这个量。

文章通过残差熵的定义推导出使得残差熵增大的条件,进而根据这个条件对图进行加边处理,旨在提高图的残差熵,从而得到防御图阅读更多...

《Delaunay Graph:Addressing Over-Squashing and Over-Smoothing Using Delaunay Triangulation》论文解读

论文传送门:click here

code:Delaunay Graph(github)

论文动机

本文是来自2024ICML的论文。

图神经网络在计算节点的特征时采用了聚合的思路,但随着gnn层数的增长,会面对如下两个问题:

  • Over-smoothing:如果GNN层很深的话,随着聚合节点的不断扩散,任意两个节点所共享的邻居就会非常多(感受野重叠),导致这两个节点的嵌入非常相似。 阅读更多...

《Learning Graph Representation via Graph Entropy Maximization》论文解读

论文传送门:click here

code:GeMax(github)

论文任务与个人想法

本工作来自于2024ICML。

文章的任务是图表示学习,其不仅对每一张图上的每个节点得到编码,更在图整体上得到关于图的编码。本文提出了一种利用正交表示进行图熵最大化的近似方法。

整篇文章读下来,有让我眼前一亮的感觉,是让我觉得蛮有意思的一篇文章。

文章运用了其他文献未运用的,基于独立集表示的熵的表示方法。 阅读更多...

《Dynamic Graph Information Bottleneck》论文解读

论文传送门:click here

Code:DGIB(github.com)

论文动机

本篇论文是2024WWW上的论文。

这篇论文将信息瓶颈理论创新性地应用于动态图神经网络中,遇上一篇论文类似,文章核心围绕着信息瓶颈理论的——minimal sufficient 特点展开。但动态图具有时间特征,因此在时间特征上的编码一致性是重要的,针对此问题,本文将minimal - sufficient进行扩展,得到Minimal-Sufficient-Consensual (MSC)原则

阅读更多...
Runtime Display
  • Copyrights © 2023-2024 Lucas
  • 访问人数: | 浏览次数:

请我喝杯咖啡吧~

支付宝
微信