WholeGraph 存储:图神经网络的内存和检索优化

新图神经网络技术

NVIDIA 的研究人员开发了 WholeGraphStor – 一种针对 #GNN 的新颖内存优化。

通过以压缩形式存储图表可以减少图表的内存占用,…

图神经网络(GNN)彻底改变了图结构数据集的机器学习。 GNN 比传统神经网络更好地捕捉图中的复杂关系。 它们用于为社交网络和化学等应用提供动力。 它们在诸如节点分类(预测图节点标签)和链接预测(确定节点之间是否存在边)等情况下表现出色。

单次处理大型图的计算成本和内存消耗可能会很高。

GNN 大规模训练的工作流程通常从子图样本开始,使用小批量训练。 这涉及到特征收集以捕获子图中所需的上下文信息。 然后将提取的子图和特征用于神经网络训练。 GNN 在此阶段展示了其聚合信息和迭代传播节点知识的能力。

来源和详细信息:
https://developer.nvidia.com/blog/wholegraph-storage-optimizing-memory-and-retrieval-for-graph-neural-networks/

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注