Bear
  • 首页
  • 目录
  • 标签
  • latex识别
  • 每日arxiv
  • 关于
顽石从未成金,仍愿场上留足印。

Graph Neural Networks with Learnable Structural and Positional Representations

该论文在拉普拉斯PE的基础上,新的可学习节点位置编码(PE),用于图嵌入。 (ICLR 2022)
2025-05-17
#深度学习 #图神经网络

(几乎涵盖一切的)表示学习统一框架

I-Con (I-Con: A Unifying Framework for Representation Learning ,ICLR 2025)是第一个将监督学习、对比学习、聚类和降维目标统一到一个损失函数下的框架,从kmeans、TSNE到SimCLR、CLIP都能统一到一起。
2025-05-15
#深度学习 #人工智能

随机块模型

在笔者之前研究图神经网络的时候,一直苦于难以使用数学去之间建模图数据。但似乎这一切有了转机,笔者最近发现了一种特殊的分析方法来分析GNN,对此这就不得不读了。
2025-05-13
#深度学习 #图神经网络

同质性对图神经网络是必需的吗?

出自《Is homophily a necessity for graph neural networks? 》ICLR, 2022. GNNs 通常被认为由于同质性假设(“物以类聚”)而工作良好,但在异质性图中(不同节点相连)泛化能力较差。 这篇论文则认为,如果图中的同一类的结点具有相似的邻居的分布, 则 Homophily 不是必须的。
2025-05-12
#深度学习 #图神经网络

Fourier Position Embedding

Fourier Position Embedding(FOPE)出自ICML2025,对当前LLM常用的ROPE进行了改进,认为ROPE默认“每一维只存在单一频率的语义”是过于理想的,所以提出了增加更多的频率(比如基于傅里叶)的方法。
2025-05-11
#深度学习

XGBoost中的base_score

本文主要源自与@broccoli beef的讨论和kaggle的TPS竞赛经历。笔者率先指出了base_score的差异,但@broccoli beef给出了更多有价值的意见和内容。
2025-05-03
#机器学习 #kaggle

力场启发的扩散模型

本文将介绍两篇论文,巧妙地通过力场的思想去构建扩散模型。出品自MIT,作者包括KAN一作刘子鸣等,(但对于KAN那篇,个人认为噱头大于实用性。)
2025-05-02
#深度学习 #物理 #生成模型

贝叶斯来加噪:Bayesian Flow Networks

Bayesian Flow Networks是由Alex Graves提出的,使用贝叶斯技巧关于生成的模型算法。 2023年,我就看到了这篇论文,但由于篇幅过长、数学推导较多难以理解、无闲暇时间,最终拖到两年后的今天,才决定动手写写自己的理解。 此文写法并不算太好,据闻youtube上也有说此文晦涩的评论。文中Alice&Bob发生和接收的意图从“趣味”入手的案例反而加难了初学者对论文的理
2025-05-01
#深度学习 #信息论 #生成模型 #贝叶斯

广州大学网络空间安全学院硕士研究生导师分析报告:学术画像、科研成果与合作网络

有东西被加密了, 请输入密码查看.
2025-04-29

Diffusion Model

Difussion模型是当今生成领域火热的模型,过往的GAN和VAE已然退出前排。 本文主要围绕《Denoising Diffusion Probabilistic Models》 (DDPM) 展开。
2025-04-27
#深度学习 #生成模型
1…910111213…30

搜索

LJX Hexo
博客已经运行 天