最新tokenpocket官网下载链接|tgn

作者: 最新tokenpocket官网下载链接
2024-03-09 21:46:11

TGNs:动态图中高效通用的时序图卷积网络框架 - 知乎

TGNs:动态图中高效通用的时序图卷积网络框架 - 知乎首发于GNNs 相关研究分享切换模式写文章登录/注册TGNs:动态图中高效通用的时序图卷积网络框架AISeer原文链接:❝ 论文标题 | Temporal Graph Networks for Deep Learning on Dynamic Graphs 论文来源 | ICML 2020 论文链接 | https://arxiv.org/abs/2006.10637 源码链接 | https://github.com/twitter-research/tgn ❞TL;DR目前大多数图神经网络都不能对动态图(即节点特征和边特征随着时间而变化的图)进行表征,论文中结合记忆模块和图卷积操作提出了一种通用高效的动态图模型,并且证明前期研究中很多的动态图模型仅是论文中提出框架的一种特例。在实验部分验证了 TGNs 在直推式学习和归纳式学习任务中达到了 state-of-the-art 性能。Algorithm/ModelBackground 静态图卷积不再赘述,如果缺少背景知识的可以参考博主其它文章。主流的动态图模型可以分为两种:离散时间的动态图:根据固定时间间隔采集的图快照;连续时间的动态图:随着时间事件演变的图,事件包括边增加或者消失,节点增加或者消失,节点和边特征变化等。这两种类型的动态图包括了大多数场景,之前我的理解大多局限在离散时间的动态图,因为连续时间的动态图大部分在社交网络的场景中,这种类型的任务处理的较少。这篇文章提出的框架是处理连续时间的动态图。文中将随着时间变化的事件时序图建模为 \mathcal{G}=\left\{x\left(t_{1}\right), x\left(t_{2}\right), \ldots\right\} ,其中事件 x(t) 分为两种类型:节点级别的 v_i(t) :其中i表示节点序号,v 表示节点特征。如果节点存在那么更新对应节点特征,如果节点不存在那么增加节点及其特征。边级别的事件 e_{ij}(t):表示出现一条时间相关的有向边,由于边类型可能不止一种因此图实际上是一个多重图。论文中对删除节点或边的情况单独作为一项进行考虑,比较复杂因此作为附录另加说明。Temporal Graph NetworkTGN 模型的任务是根据随时间变化的连续事件来生成每个事件 t 的图节点表示 \mathbf{Z}(t)=\left(\mathbf{z}_{1}(t), \ldots, \mathbf{z}_{n(t)}(t)\right)。论文中首先使用 Memory Module 来保留节点长期的特征,类似于 LSTM 的思路。当一个新的事件来临时模块内节点特征更新的方法如下:依赖于以下几个模块进行消息传递的节点嵌入。「Message Function」对于 t 时刻节点 i 和 j 间边级别的交互事件,节点信息更新传递函数如下:\mathbf{m}_{i}(t)=\mathrm{msg}_{\mathrm{s}}\left(\mathbf{s}_{i}\left(t^{-}\right), \mathbf{s}_{j}\left(t^{-}\right), \Delta t, \mathbf{e}_{i j}(t)\right), \quad \mathbf{m}_{j}(t)=\mathrm{msg}_{\mathrm{d}}\left(\mathbf{s}_{j}\left(t^{-}\right), \mathbf{s}_{i}\left(t^{-}\right), \Delta t, \mathbf{e}_{i j}(t)\right) \\对于 t 时刻节点 i 的节点级别事件,节点信息更新函数如下:\mathbf{m}_{i}(t)=\operatorname{msg}_{n}\left(\mathbf{s}_{i}\left(t^{-}\right), t, \mathbf{v}_{i}(t)\right) \\其中 \mathbf{s}_{i}\left(t^{-}\right) 表示 t 时刻前的节点特征,\operatorname{msg}_{n} 表示可学习的信息传递函数例如 MLPs 等。「Message Aggregator」由于批事件处理可能会导致同一节点在时刻 t 同时需要更新节点,因此论文中使用一种聚合方式来聚合每个节点的特征。对于时间范围 t_1,\cdots,t_b \leq t 的节点信息 \mathbf{m}_{i}(t_1),\cdots \mathbf{m}_{i}(t_b),节点 i 在t 时刻的节点特征更新为:\overline{\mathbf{m}}_{i}(t)=\operatorname{agg}\left(\mathbf{m}_{i}\left(t_{1}\right), \ldots, \mathbf{m}_{i}\left(t_{b}\right)\right) \\聚合函数 agg 有很多选择,例如 RNNs 或者注意力机制等等。论文中用到的是两种:most recent message 和 mean message。「Memory Updater」节点特征需要根据事件进行更新,边交互事件需要更新关联的节点对,节点事件需要更新对应节点,形式化表达如下:\mathbf{s}_{i}(t)=\operatorname{mem}\left(\overline{\mathbf{m}}_{i}(t), \mathbf{s}_{i}\left(t^{-}\right)\right) \\其中 mem 更新函数是一个可学习的内存更新函数,例如 LSTM 或者 GRU 等。「Embedding」根据以上模块的节点状态更新,需要对节点 i 在时刻 t 的特征进行编码得到嵌入表示 \mathbf{z}_i(t)。形式化表达如下:\mathbf{z}_{i}(t)=\operatorname{emb}(i, t)=\sum_{j \in \eta_{i}^{k}([0, t])} h\left(\mathbf{s}_{i}(t), \mathbf{s}_{j}(t), \mathbf{e}_{i j}, \mathbf{v}_{i}(t), \mathbf{v}_{j}(t)\right) \\其中 h 是可学习的函数,对于不同的场景有不同的计算形式:Identity(id):\operatorname{emb}(i, t) = \mathbf{s}_{i}(t),直接以节点特征作为 node embedding。Time projection (time):\operatorname{emb}(i, t) = (1+\Delta t \mathbf{w})\cdot \mathbf{s}_i(t),\Delta t 表示上次更新的时间间隔。Temporal Graph Attention (attn):图注意力层,详细计算方式参考原文。Temporal Graph Sum (sum):图节点特征快速融合。Experiments论文中提出的模型在链路预测中的效果如下:动态节点分类的结果如下:从实验结果来看,论文中的方法远优于其它 baselines,论文开源的代码非常详细,感兴趣的同学可以自己动手实践下。Thoughts目前暂未接触动态图的预测任务,但是论文提出的方法创新性蛮好的,兼容了不同属性的图结构。Contact编辑于 2021-03-29 16:06图卷积神经网络 (GCN)Social Graph社交网络​赞同 27​​添加评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录GNNs 相关研究分享Papers reading about GNNsHello Graphfocus on Gr

内质网和高尔基体的膜泡运输——膜泡的形成 - 知乎

内质网和高尔基体的膜泡运输——膜泡的形成 - 知乎首发于从分子到细胞切换模式写文章登录/注册内质网和高尔基体的膜泡运输——膜泡的形成鑫波和他的小鱼干​植物学等 2 个话题下的优秀答主我们在上一讲《 细胞内功能区隔与蛋白质分选 》中提到,完成翻译的蛋白质要去发挥结构或功能作用,而他们发挥功能的部位几乎遍布细胞的各种区间。不同的机制确保蛋白质分选,转运至细胞的特定部位,才能参与细胞的各种生命活动。本讲我们将进一步讨论内质网和高尔基体相关的膜泡运输。细胞内膜系统各个部分之间的物质传递常通过膜泡运输方式进行。如从内质网到高尔基体;高尔基体到溶酶体;细胞分泌物的外排,都要通过过渡性小泡进行转运。膜泡运输是一种高度组织的定向运输,各类运输泡之所能够被准确地运到靶细胞器,主要是因为细胞器的胞质面具有特殊的膜标志蛋白。许多膜标志蛋白存在于不止一种细胞器,可见不同的膜标志蛋白组合,决定膜的表面识别特征。蛋白质分泌和内吞途径概观。内吞和分泌途径分别用绿色和红色箭头表示,蓝色箭头表示回流路径。在分泌通路中,蛋白质分子从ER转运到质膜,或者(通过内吞体)到溶酶体。在内吞途径中,分子从质膜被吞入囊泡,运送到早期内吞体,然后(通过晚期内吞体)被运送到溶酶体。细胞依赖有效而精密的机制,确保在糙面内质网合成的各种蛋白经过加工,在高尔基体TGN通过形成不同的转运膜泡,以不同的途径被分选、运输,各就各位,在特定时间和位点发挥其特定功能。膜泡运输是蛋白质分选的一种特有的方式,普遍存在于真核细胞中。在转运过程中不仅涉及蛋白质本身的修饰、加工和组装,还涉及多种不同膜泡靶向运输及其复杂的调控过程。网格蛋白形成笼状结构,帮助膜形成囊泡。细胞内膜泡运输需要多种转运膜泡参与,大多数运输小泡是在膜的特定区域以出芽的方式产生的。其表面具有一个笼状的由蛋白质构成的衣被(coat)。这种衣被在运输小泡与靶细胞器的膜融合之前解体。衣被具有两个主要作用: ①选择性的将特定蛋白聚集在一起,形成运输小泡;②如同模具一样决定运输小泡的外部特征,相同性质的运输小泡之所以具有相同的形状和体积,与衣被蛋白的组成有关。已知三类具有代表性的衣被蛋白,即:网格蛋白/笼形蛋白(clathrin)、COPI 和 COPII,各介导不同的运输途径。囊泡运输过程中不同衣被蛋白的使用根据转运膜泡表面包被蛋白的不同,也分3种类型:COPⅡ (coat proteinⅡ)包被膜泡、COPI (coatprotein I)包被膜泡和网格蛋白/适配蛋白(clathrin/adaptor protein)包被膜泡。网格蛋白包覆的囊泡有几种类型,每种都专门用于不同的运输步骤,COPI 和 COPII 包覆的囊泡可能也有类似的多样性。例如,网格蛋白包覆的囊泡介导从高尔基体和质膜的转运(上图绿色),而COPI (红色)和COPII (蓝色)包覆的囊泡常介导ER和高尔基间的转运。蛋白转运中涉及的衣被囊泡及其特征比较1. 网格蛋白衣被小泡的组分及其形成网格蛋白衣被小泡是最早发现的衣被小泡,网格蛋白分子由 3 个重链和 3 个轻链组成,形成具有 3 个曲臂的形状(triskelion)。网格蛋白的曲臂部分交织在一起,形成具有网孔的笼子。网格蛋白衣被小泡介导高尔基体到内吞体、溶酶体、植物液泡的运输,以及质膜到内膜区隔的膜泡运输。每个网格蛋白三支链由三个网格蛋白重链和三个网格蛋白轻链组成,36个三叉体组成12个五边形和6个六边形的网格蛋白被膜,轻链与肌动蛋白细胞骨架相连接,产生细胞膜出芽和囊泡运动的力,磷酸化调节网格蛋白的组装。牛脑网格蛋白(最右侧)构造类似但不太规则,由五角形、更多的六角形,有时甚至是七角形。网格蛋白形成的衣被中还有衔接蛋白/适配蛋白(adaptin),它介于网格蛋白与配体受体复合物之间,起连接作用。目前至少发现 3 种不同类型的衔接蛋白,可分别结合不同类型的受体,形成不同性质的转运小泡,如 AP1 参与高尔基体→内吞体的运输、 AP2 参与质膜→内吞体的运输、 AP3 参与高尔基体→溶酶体的运输。不同类型的衔接蛋白结合不同类型的受体,形成不同性质的转运小泡,运输到不同的目的地。当网格蛋白衣被小泡形成时,动力蛋白(dynamin)聚集成一圈围绕在颈部,将小泡柄部的膜尽可能地拉近(小于 1.5nm),从而导致膜融合, 掐断(pinch off)衣被小泡。动力蛋白是一种 GTP 酶,调节小泡以出芽形式脱离膜的速率。动力素可以召集其它可溶性蛋白在小泡的颈部聚集,通过改变膜的形状和膜脂的组成,促使小跑颈部的膜融合,形成衣被小泡。网格蛋白分子(深绿色)结合到小泡表面,将曲率引入膜中帮助出芽。适配蛋白(浅绿色)结合网格蛋白三叉支链和膜的货物受体(蓝色),介导膜和可溶货物分子的选择性招募。动态蛋白聚集在小泡的颈,组装完毕后水解GTP,在颈部的其他蛋白质(未显示)的帮助下,将囊泡掐掉。出芽完成后,被膜蛋白被去除。2. COPI 衣被小泡的组分及其形成COPI 衣被小泡起初发现于高尔基体碎片,在含有 ATP 的溶液中温育时,能形成非笼形蛋白包被的小泡。COPI 衣被小泡介导细胞内膜泡逆向运输,负责回收、转运内质网逃逸蛋白(escaped proteins)返回内质网,包括再循环的膜脂双层、内质网驻留的可溶性蛋白和膜蛋白。内质网向高尔基体输送运输小泡时,一部分自身的蛋白质也不可避免的被运送到了高尔基体,如不进行回收则内质网因为磷脂和某些蛋白质的匮乏而停止工作。内质网通过两种机制维持蛋白质的平衡:一是转运泡将应被保留的驻留蛋白排斥在外,例如有些驻留蛋白参与形成大的复合物,因而不能被包装在出芽形成的转运泡中,结果被保留下来;二是通过对逃逸蛋白的回收机制,使之返回它们正常驻留的部位。不同类型的膜泡转运内质网的正常驻留蛋白,不管在腔中还是在膜上,它们在 C 端含有一段回收信号序列(retrieval signals),如果它们被意外地逃逸进入转运泡从内质网运至高尔基体顺面(CGN),则CGN区的膜结合受体蛋白将识别并结合逃逸蛋白的回收信号,形成 COPI 衣被小泡将它们返回内质网。已知蛋白质包装到特异膜泡的转运信号膜泡运输既能转运膜结合的蛋白,又能通过膜受体识别并转运可溶性蛋白,其包装特异性取决于被转运蛋白的靶向分选序列(上表),以区分哪些膜蛋白或可溶性蛋白将被进一步包装转运,哪些将作为驻留蛋白而被排除在外。内质网腔中的可溶性蛋白,如蛋白二巯键异构酶和协助折叠的分子伴侣,均具有典型的KDEL回收信号。如果一个内质网的蛋白缺乏KDEL序列,那么这种蛋白将不能返回内质网,而是被转运膜泡带到质膜。相反,如果通过基因重组方法使表达的溶酶体蛋白或分泌蛋白在C端含有一段附加的KDEL序列,那么这种蛋白将返回内质网,而不是被转运至溶酶体或分泌泡。内质网的膜蛋白如SRP受体,在C端有一个不同的回收信号,通常是KKXX(K- -lysine,X-任意氨基酸),识别并结合该信号的受体是包被蛋白的 COP I α 和β 亚基,从而促进它们返回到ER。这种通过回收信号所介导的回收机制有利于防止内质网腔蛋白(如用于新合成分泌蛋白正确折叠所需要的分子伴侣蛋白)的损失。在生物合成途径中,每种膜组分也许都具有它自身独特的回收信号,所以任凭转运膜泡在特定空间不断运动,但每种细胞器仍可保持它独特的蛋白质组分。3. COPII 衣被小泡的组分及其形成COPII 包被膜泡介导细胞内顺向运输,即负责从内质网到高尔基体的物质运输。COPII 包被由下列蛋白组分形成:小分子GTP结合蛋白Sar1、Sec23/Sec24复合物、Sec13/Sec31复合物以及大的纤维蛋白Sec16。Sar1与 Sec23/Sec24复合体结合在一起,形成紧紧包围着膜的一层衣被,Sec13/Sec31 复合体形成覆盖在外围的一层衣被,Sec16 推测可能是一种骨架蛋白,Sec12 是 Sar1 的鸟苷酸交换因子。在实验条件下,纯化的 Sar1、Sec23/Sec24、 Sec13/Sec31 等 5 种成分足以在人工脂质体上形成小泡,说明这些成分具有改变膜的形状和掐断运输小泡的功能。COPII包膜小泡的装配过程。COPII 膜泡由下列蛋白组分形成:小分子GTP结合蛋白Sar1、Sec23/Sec24复合物、Sec13/Sec31复合物以及大的纤维蛋白Sec16。COPII 衣被小泡形成于内质网的特殊部位,称为内质网出口(exit sites),这些部位没有核糖体,由交织在一起的管道和囊泡组成网络结构。膜泡是通过胞质可溶性COPII 包被蛋白在供体膜(ER膜)出芽时聚合形成的,包被装配的聚合过程受小分子GTP结合蛋白Sar1调控,Sar1隶属 GTPase超家族成员,通过GDP-Sar1/GTP-Sar1的转换,起分子开关调控作用。膜蛋白通过出口信号与COPII 被膜的适配蛋白互作,被包装成出芽囊泡。一些膜蛋白作为货物受体,与内质网可溶性蛋白结合帮助其包装。其他蛋白质可通过体积流进入囊泡。一个典型的50nm运输囊泡含有大约200种膜蛋白,有许多不同的类型。未完全组装的未折叠蛋白与伴侣蛋白结合,并暂时保留在ER室中。衣被召集GTP酶对衣被的形成其动态调节作用,当多数衣被召集GTP酶处于结合GTP的状态时,它催化衣被的形成;反之当多数衣被召集GTP酶处于结合GDP的状态时,它催化衣被的解体。因此衣被的形成过程是边形成便解体的动态过程,只有在组装速率大于解体速率时,才能形成衣被小泡。由内质网到高尔基体的蛋白转运中, 大多数跨膜蛋白是直接结合在COPII 衣被上,少数跨膜蛋白和多数可溶性蛋白通过受体与COPII 衣被结合,这些受体在完成转运后,通过COPI 衣被小泡返回内质网。COPII 衣被所识别的分选信号位于跨膜蛋白胞质面的结构域形式多样,有些包含双酸性基序[DE]X[DE](D为Asp,E为Glu,X 为任何一种氨基酸),如 Asp-X-Glu序列,其他一些具有短的疏水基序,如 FF、YYM、 FY、LL、 IL 等等(其中F为Phe,Y为Tyr,M为Met,L为Leu,I为Ile)。本讲我们概述了3种不同类型膜泡的基本组成和形成过程,下一讲我们将介绍膜泡形成以后的定向运输和胞吞胞吐。参考文献Bruce Alberts, Dennis Bray, Karen Hopkin, Alexander Johnson, Julian Lewis, Martin Raff, Keith Roberts, Peter Walter. Essential cell biology_4th Edition.Bruce Alberts, Alexander Johnson, Julian Lewis, David Morgan, Martin Raff, Keith Roberts, Peter Walter. Molecular Biology of THE CELL_6th Edition.翟中和,王喜忠,丁明孝. 细胞生物学(第4版), 高等教育出版社, 2011田润刚. 细胞生物学教程, 绍兴文理学院生物科学系网络教材, 2004Gomez-Navarro N , Miller E . Protein sorting at the ER–Golgi interface[J]. The Journal of Cell Biology, 2016:jcb.201610031.Guo Y , Sirkis D W , Schekman R . Protein Sorting at the trans -Golgi Network[J]. Annual Review of Cell and Developmental Biology, 2014, 30(1).编辑于 2019-01-08 13:59蛋白质细胞生物学分子生物学​赞同 213​​26 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录从分子到细胞细胞里的生化过程和分子事件孢子学院的生物学一起学习、分享

高尔基体_百度百科

_百度百科 网页新闻贴吧知道网盘图片视频地图文库资讯采购百科百度首页登录注册进入词条全站搜索帮助首页秒懂百科特色百科知识专题加入百科百科团队权威合作下载百科APP个人中心收藏查看我的收藏0有用+10高尔基体播报讨论上传视频真核细胞中的细胞器高尔基体是由单位膜构成的扁平囊叠加在一起所组成。扁平囊为圆形,边缘膨大且具穿孔。一个细胞内的全部高尔基体,总称为高尔基器。 [1]一个高尔基体常具5–8个囊,囊内有液状内含物。 [1]高尔基体(Golgi apparatus,Golgi complex)亦称高尔基复合体、高尔基器。由光面膜组成的囊泡系统,它由扁平膜囊(saccules)、大囊泡(vacuoles)、小囊泡(vesicles)三个基本成分组成。是真核细胞中内膜系统的组成之一。意大利细胞学家卡米洛·高尔基于1898年首次用硝酸银染色的方法在神经细胞中发现。中文名高尔基体外文名Golgi apparatus, Golgi bodies别    名高尔基复合体,高尔基器动物体内作用蛋白质的分选、加工,形成溶酶体植物体内作用与细胞壁形成有关发现者卡米洛·高尔基特    点高尔基体的形成面与顺面具嗜锇性缩    写GA目录1物种学史2形态组成3主要功能▪蛋白质糖基化▪参与细胞分泌▪进行膜的转化▪将蛋白水解▪参与形成溶酶体▪参与形成植物细胞壁▪其他功能4结构5炎症反应的参与6作用过程7病变物种学史播报编辑高尔基体高尔基体(Golgi apparatus, Golgi bodies)是由许多扁平的囊泡构成的以分泌为主要功能的细胞器。又称高尔基器或高尔基复合体;在高等植物细胞中称分散高尔基体。最早发现于1855年,1898年由意大利神经学家、组织学家卡米洛·高尔基(Camillo Golgi,1844–1926)在光学显微镜下研究银盐浸染的猫头鹰神经细胞内观察到了清晰的结构,因此定名为高尔基体。因为这种细胞器的折射率与细胞质基质很相近,所以在活细胞中不易看到。高尔基体从发现以来100多年的历史中,其中一半以上的时间是进行关于高尔基体的形态甚至是它是否真实存在的争论。细胞学家赋予它几十种不同的名称,也有很多人认为高尔基体是由于固定和染色而产生的人工假象。直到20世纪50年代应用电子显微镜才清晰地看出它的亚显微结构。它不仅存在于动植物细胞中,而且也存在于原生动物和真菌细胞内。高尔基体 [2]形态组成播报编辑高尔基体是由数个扁平囊泡堆在一起形成的高度有极性的细胞器。 [3]常分布于内质网与细胞膜之间,呈弓形或半球形,凸进去的一面对着内质网称为形成面(forming face)或顺面(cis face)。凹出来的一面对着质膜称为成熟面(mature face)或反面(trans face)。 [3]顺面和反面都有一些或大或小的运输小泡,在具有极性的细胞中,高尔基体常大量分布于分泌端的细胞质中。因其看上极像滑面内质网,因此有科学家认为它是由滑面内质网进化而来的。 [3]细胞结构扁平囊的直径为1μm,由单层膜构成,膜厚6~7nm,中间形成囊腔,周缘多呈泡状,4~8个扁平囊在一起,某些藻类可达一二十个,构成高尔基体的主体,称为高尔基堆(Golgi stack)。高尔基体膜含有大约60%的蛋白和40%的脂类,具有一些和内质网(Endoplasmic Reticulum)共同的蛋白成分。膜脂中磷脂酰胆碱的含量介于内质网(Endoplasmic Reticulum)和质膜之间,中性脂类主要包括胆固醇,胆固醇酯和甘油三酯。高尔基体中的酶主要有糖基转移酶、磺基–糖基转移酶、氧化还原酶、磷酸酶、蛋白激酶、甘露糖苷酶、转移酶和磷脂酶等不同的类型。高尔基体由两种膜结构即扁平膜囊和大小不等的囊泡组成。其表面看上去极像光面内质网。扁平膜囊是高尔基体最富特征性的结构组分。在一般的动、植物细胞中,3~7个扁平膜囊重叠在一起,略呈弓形 。弓形囊泡的凸面称为形成面,或未成熟面;凹面称为分泌面,或成熟面。小液泡散在于扁平膜囊周围,多集中在形成面附近。一般认为小液泡是由临近高尔基体的内质网以芽生方式形成的,起着从内质网到高尔基体运输物质的作用。糙面内质网腔中的蛋白质,经芽生的小泡输送到高尔基体,再从形成面到成熟面的过程中逐步加工。较大的液泡是由扁平膜囊末端或分泌面局部膨胀,然后断离所形成。由于这种液泡内含扁平膜囊的分泌物,所以也称分泌泡。分泌泡逐渐移向细胞表面,与细胞的质膜融合,而后破裂,内含物随之排出 。不同细胞中高尔基体的数目和发达程度,既决定于细胞类型、分化程度,也取决于细胞的生理状态。主要功能播报编辑高尔基体的主要功能将内质网合成的蛋白质进行加工、分拣、与运输,然后分门别类地送到细胞特定的部位或分泌到细胞外。对比高尔基体是完成细胞分泌物(如蛋白)最后加工和包装的场所。 [3]从内质网送来的小泡与高尔基体膜融合,将内含物送入高尔基体腔中,在那里新合成的蛋白质肽链继续完成修饰和包装。 [3]高尔基体还合成一些分泌到胞外的多糖和修饰细胞膜的材料。 [3]蛋白质糖基化N–连接的糖链合成起始于内质网,完成于高尔基体。在内质网形成的糖蛋白具有相似的糖链,由Cis面进入高尔基体后,在各膜囊之间的转运过程中,发生了一系列有序的加工和修饰,原来糖链中的大部分甘露糖被切除,但又被多种糖基转移酶依次加上了不同类型的糖分子,形成了结构各异的寡糖链。糖蛋白的空间结构决定了它可以和哪一种糖基转移酶结合,发生特定的糖基化修饰。许多糖蛋白同时具有N-连接的糖链和O–连接的糖链。O–连接的糖基化只在高尔基体中进行,通常的一个连接上去的糖单元是N–乙酰半乳糖,连接的部位为Ser、Thr和Hyp的OH基团,然后逐次将糖基转移到上去形成寡糖链,糖的供体同样为核苷糖,如UDP–半乳糖。糖基化的结果使不同的蛋白质打上不同的标记,改变多肽的构象和增加蛋白质的稳定性。内部构造在高尔基体上还可以将一至多个氨基聚糖链通过木糖安装在核心蛋白的丝氨酸残基上,形成蛋白聚糖。这类蛋白有些被分泌到细胞外形成细胞外基质或粘液层,有些锚定在膜上。参与细胞分泌负责对细胞合成的蛋白质进行加工,分类,并运出,其过程是RER上合成蛋白质→进入ER腔→以出芽形成囊泡→进入CGN→在培养基(medial )Gdgi中加工→在TGN形成囊泡→囊泡与质膜融合、排出。高尔基体对蛋白质的分类,依据的是蛋白质上的信号肽或信号斑。细胞作用根据早期光镜的观察,已有人提出高尔基体与细胞的分泌活动有关。随着现代科学的发展,运用电镜、细胞化学及放射自显影技术更进一步证实和发展了这个观点。高尔基体在分泌活动中所起的作用,主要是将粗面型内质网运来的蛋白质类的物质,起着加工(如浓缩或离析)、储存和运输的作用,最后形成分泌泡。当形成的分泌泡自高尔基囊泡上断离时,分泌泡膜上带有高尔基囊膜所含有的酶,还能不断起作用,促使分泌颗粒不断浓缩、成熟,最后排出细胞外。最典型的,如胰外分泌细胞中所形成的酶原颗粒。放射自显影技术证明,高尔基体自身还能合成某些物质,如多糖类。它还能使蛋白质与糖或脂结合成糖蛋白和脂蛋白的形式。在某些细胞(如肝细胞),高尔基体还与脂蛋白的合成、分泌有关。进行膜的转化高尔基体的膜无论是厚度还是在化学组成上都处于内质网和质膜之间,因此高尔基体在进行着膜转化的功能,在内质网上合成的新膜转移至高尔基体后,经过修饰和加工,形成与运输泡质膜融合,使新形成的膜整合到质膜上。将蛋白水解如将蛋白质N端或C端切除,成为有活性的物质(胰岛素C端)或将含有多个相同氨基序列的前体水解为有活性的多肽,如神经肽。参与形成溶酶体一般都认为初级溶酶体的形成过程与分泌颗粒的形成类似,也起自高尔基体囊泡。初级溶酶体与分泌颗粒(主要指一些酶原颗粒),从本质上看具有同一性,因为溶酶体含多种酶(主要是各种水解酶),是蛋白质与酶原颗粒一样,也参与分解代谢物的作用。不同处在于:酶原颗粒是排出细胞外发挥作用,而溶酶体内的酶类主要在细胞内起作用。参与形成植物细胞壁高尔基体在高等植物细胞有丝分裂末期,形成细胞壁时,高尔基体数量增加。在植物细胞中,高尔基体合成和分泌多种多糖,它们至少含12种以上的单糖。多数多糖呈分支状且有很多共价修饰,远比动物细胞的复杂。估计构成植物细胞典型初生壁的过程就涉及数百种酶。除少数酶共价结合在细胞壁上外,多数酶都存在于内质网和高尔基体中。其中一个例外是多数植物细胞的纤维素是由细胞膜外侧的纤维素合成酶合成的。植物细胞分裂时,高尔基体与细胞壁的形成有关。在高中课本认为高尔基体可以合成纤维素,但事实上多数植物细胞的纤维素是由细胞膜外侧的纤维素合成酶合成的。可以明确的是,高尔基体可以合成果胶和非纤维素多糖。其他功能高尔基体还有其他功能。如在某些原生动物中,高尔基体与调节细胞的液体平衡有关系。结构播报编辑1、顺面膜囊 (cis Golgi) 接受来自内质网新合成的物质并将其分类后大部分转入高尔基体中间膜囊,小部分蛋白质与脂质再返回内质网(驻留在内质网上)。其他如:蛋白的O–连接,跨膜蛋白的酰基化,日冕病毒的装配也是在此。2、中间膜囊(medial Golgi)多数糖基化修饰、糖脂的形成、多糖的形成。有很大的膜表面,增大了合成与修饰的有效面积。3、反面膜囊(trans Golgi)ph比其他部位低。功能是蛋白质的分类与包装以及输出,“晚期”蛋白质修饰。并保证蛋白与脂质的单向转运。炎症反应的参与播报编辑高尔基体反面膜囊网络结构(TGN)最近被发现可以参与炎症小体(又称“炎性小体”,这里的炎症小体的受体蛋白为NLRP3)响应外界信号进而组装的信号轴。 [1]炎症小体是一个蛋白复合物,主要包含受体蛋白、接头蛋白ASC以及下游的胱天蛋白酶caspase–1。炎症小体的种类和功能较为复杂,在这里不作赘述。而对于NLRP3受体蛋白,其结构组成如下: [1]而下游的接头蛋白ASC结构组成如下:在受体蛋白被激活后可以通过自身的PYD结构域与接头蛋白的PYD结构域结合以激活ASC,随即后者通过自身的CARD结构域激活下游caspase–1,促使其自切割成2部分,进一步切割并促进细胞白介素等相关细胞因子的成熟。在PYD和NACHT结构域之间,存在着高度保守的正电区域,其中仅含4个氨基酸的KKKK模体在所有已知的NLRP3基因的蛋白质中都至少含有3个正电氨基酸。当收到炎症小体激动剂的时候,TGN被发现可以解体形成囊泡状结构(dTGN),这些结构上的负电磷脂PtdIns4P可以和NLRP3的正电荷结合,并促使后者形成聚合物,进而使NLRP3得以激活。该机制在一定程度上打破了TGN作为高尔基体固定组成部分的印象,开启了高尔基体作为炎症反应信号轴“信使”的新身份。 [1]作用过程播报编辑细胞中蛋白质的合成从细胞核中的基因组DNA转录合成信使RNA(mRNA)开始,mRNA穿过了细胞核到达核外,在内质网(ER)上合成了蛋白质,此时蛋白质会从内质网上以小囊泡的形式脱离下来,其目的地就是物流中心——高尔基体,就像工厂里面生产出来的商品被输送到物流中心再向用户配送一样。其实,被输送到高尔基体的蛋白质上面已经标记了蛋白质的去向,就像商品进入物流中心时都会贴好收货人地址一样。此时,高尔基体就会读取蛋白质的“收货地址”,如果这个蛋白质上有“分泌”信号,高尔基体就知道这个蛋白质需要被分泌到细胞外,于是就形成一个可以分泌蛋白质到细胞外的小囊泡,把需要分泌到细胞外的蛋白质包裹到里面并最终分泌到细胞外。如果蛋白上有信号表示该蛋白质应该留在内质网,高尔基体就会形成另外一种小囊泡,把蛋白送回到ER。高尔基体就是这样通过阅读蛋白质上的信息把蛋白运送到“收货人”手中。高尔基体物流中心的功能还不止是这些,它还会对运输的货物——蛋白质进行加工,这个加工过程就是把各种寡糖链连接到蛋白上,这个过程称为糖基化,而这种糖基化是蛋白最终可以执行各种功能的保证。病变播报编辑1、高尔基体肥大。高尔基体肥大见于细胞的分泌物和酶的产生旺盛时。巨噬细胞在吞噬活动旺盛时,可见形成许多吞噬体、高尔基复合物增多并从其上断下许多高尔基小泡。2、高尔基体萎缩。在各种细胞萎缩时可见高尔基体变小和部分消失。3、高尔基体损伤。大多出现扁平囊的扩张以及扁平囊、大泡和小泡崩解。新手上路成长任务编辑入门编辑规则本人编辑我有疑问内容质疑在线客服官方贴吧意见反馈投诉建议举报不良信息未通过词条申诉投诉侵权信息封禁查询与解封©2024 Baidu 使用百度前必读 | 百科协议 | 隐私政策 | 百度百科合作平台 | 京ICP证030173号 京公网安备110000020000

信号肽与新生肽链的运输和加工(三) - 知乎

信号肽与新生肽链的运输和加工(三) - 知乎首发于生化杂谈切换模式写文章登录/注册信号肽与新生肽链的运输和加工(三)lcy19712018关注生化领域高尔基体加工后的蛋白被分类运往溶酶体、分泌颗粒和质膜等目的地。其中溶酶体蛋白的定位标签比较独特,是修饰的糖链。经典的溶酶体定位标签是甘露糖6-磷酸(M6P)。这需要蛋白质中具有特定序列(Asn-X-Ser / Thr),经内质网和高尔基体连续加工修饰产生。M6P由甘露糖受体(MPR)识别。MPR有两种类型(CD-MPR和CI-MPR),共同参与溶酶体蛋白的运输过程。也有些蛋白通过非M6P-MPR依赖的途径靶向到溶酶体。例如溶酶体整合膜蛋白(LIMP-II)负责运输溶酶体β-葡萄糖脑苷脂酶(β-GC),Sortilin可以转运神经降压素(NT),脂蛋白脂肪酶和鞘脂激活蛋白(ProSAP)等。参与溶酶体蛋白运输的受体。Biochim Biophys Acta. 2009 Apr;1793(4):605-14.在高尔基体反式网络(TGN),带有M6P修饰的蛋白与MPR结合,其它蛋白与sortilin或LIMP-II结合,然后被包装到带有网格蛋白的囊泡(CCV)或运输载体(TC)中,带到内体。内体的酸性pH使这些蛋白与其受体解离。释放的蛋白保留在管腔中,MPR和sortilin通过逆行运输囊泡(retromer)从内体回到TGN,而LIMP-II无法回收,最终成为溶酶体限制性膜的组成部分。还有一些MPR从TGN逃逸到质膜,可将带有M6P的分子从胞外传递到内体,最后进入溶酶体。溶酶体蛋白的定位途径。Biochim Biophys Acta. 2009 Apr;1793(4):605-14.TGN是高尔基体向外运输蛋白的总枢纽,分泌蛋白也是在这里形成胞吐小泡,然后与质膜融合,从而将其释放到胞外。不过分泌途径比较复杂,有不同支路,定位标签也不唯一。分泌蛋白的经典加工成熟过程需要经内质网核心糖化和高尔基体末端糖化等修饰。其中新生肽链进入内质网的方式主要是由信号肽引导,属于伴随翻译的易位(cotranslational translocation)。分泌蛋白的折叠和成熟。Genetics. 2013 Feb; 193(2): 383–410.现在已经发现了一些特殊的进入内质网方式,都属于翻译后易位(post-translational translocation)。一种情况是由胞质Hsp70 ATPases(例如Ssa1),将新生的分泌蛋白维持在去折叠的易位状态,通过Sec62 / Sec63 / Sec71 / Sec72形成的Sec63复合体进入内质网。还有一种情况是所谓的GET途径(Guided Entry of Tail-anchored proteins),这也是C端锚定膜蛋白嵌入膜中的三条途径之一。据估计,真核生物基因组中约有5%的整合膜蛋白需要这条不依赖SRP的途径,包括与细胞内膜融合事件密切相关的SNARE蛋白。分泌蛋白进入内质网的三条途径。Genetics. 2013 Feb; 193(2): 383–410.在细胞质中,Sgt2、Get4和Get5形成亚复合体,将C端锚定蛋白底物加载到靶向因子Get3。后者将其引导至膜上的Get1 / Get2复合物,然后消耗ATP穿过ER膜。参考文献:1. Thomas Braulke, et al. Sorting of lysosomal proteins. Biochim Biophys Acta. 2009 Apr;1793(4):605-14.2. Charles K. Barlowe, et al. Secretory Protein Biogenesis and Traffic in the Early Secretory Pathway. Genetics. 2013 Feb; 193(2): 383–410.3. Yihong Ye. Regulation of protein homeostasis by unconventional protein secretion in mammalian cells. Semin Cell Dev Biol. 2018 Nov; 83: 29–35.4. Federica Brandizzi, et al. Organization of the ER–Golgi interface for membrane traffic control. Nat Rev Mol Cell Biol. 2013 Jun; 14(6): 382–392.发布于 2020-07-23 10:35生物学生物化学基因表达​赞同 24​​7 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录生化杂谈生化教学科研过程中的一些思

GitHub - twitter-research/tgn: TGN: Temporal Graph Networks

GitHub - twitter-research/tgn: TGN: Temporal Graph Networks

Skip to content

Toggle navigation

Sign in

Product

Actions

Automate any workflow

Packages

Host and manage packages

Security

Find and fix vulnerabilities

Codespaces

Instant dev environments

Copilot

Write better code with AI

Code review

Manage code changes

Issues

Plan and track work

Discussions

Collaborate outside of code

Explore

All features

Documentation

GitHub Skills

Blog

Solutions

For

Enterprise

Teams

Startups

Education

By Solution

CI/CD & Automation

DevOps

DevSecOps

Resources

Learning Pathways

White papers, Ebooks, Webinars

Customer Stories

Partners

Open Source

GitHub Sponsors

Fund open source developers

The ReadME Project

GitHub community articles

Repositories

Topics

Trending

Collections

Pricing

Search or jump to...

Search code, repositories, users, issues, pull requests...

Search

Clear

Search syntax tips

Provide feedback

We read every piece of feedback, and take your input very seriously.

Include my email address so I can be contacted

Cancel

Submit feedback

Saved searches

Use saved searches to filter your results more quickly

Name

Query

To see all available qualifiers, see our documentation.

Cancel

Create saved search

Sign in

Sign up

You signed in with another tab or window. Reload to refresh your session.

You signed out in another tab or window. Reload to refresh your session.

You switched accounts on another tab or window. Reload to refresh your session.

Dismiss alert

twitter-research

/

tgn

Public

Notifications

Fork

169

Star

846

TGN: Temporal Graph Networks

License

Apache-2.0 license

846

stars

169

forks

Branches

Tags

Activity

Star

Notifications

Code

Issues

7

Pull requests

1

Actions

Projects

0

Security

Insights

Additional navigation options

Code

Issues

Pull requests

Actions

Projects

Security

Insights

twitter-research/tgn

This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.

 masterBranchesTagsGo to fileCodeFolders and filesNameNameLast commit messageLast commit dateLatest commit History45 Commitsevaluationevaluation  figuresfigures  modelmodel  modulesmodules  utilsutils  .gitignore.gitignore  CONTRIBUTING.mdCONTRIBUTING.md  LICENSELICENSE  README.mdREADME.md  __init__.py__init__.py  train_self_supervised.pytrain_self_supervised.py  train_supervised.pytrain_supervised.py  View all filesRepository files navigationREADMEApache-2.0 licenseTGN: Temporal Graph Networks [arXiv, YouTube, Blog Post]

Dynamic Graph

TGN

Introduction

Despite the plethora of different models for deep learning on graphs, few approaches have been proposed thus far for dealing with graphs that present some sort of dynamic nature (e.g. evolving features or connectivity over time).

In this paper, we present Temporal Graph Networks (TGNs), a generic, efficient framework for deep learning on dynamic graphs represented as sequences of timed events. Thanks to a novel combination of memory modules and graph-based operators, TGNs are able to significantly outperform previous approaches being at the same time more computationally efficient.

We furthermore show that several previous models for learning on dynamic graphs can be cast as specific instances of our framework. We perform a detailed ablation study of different components of our framework and devise the best configuration that achieves state-of-the-art performance on several transductive and inductive prediction tasks for dynamic graphs.

Paper link: Temporal Graph Networks for Deep Learning on Dynamic Graphs

Running the experiments

Requirements

Dependencies (with python >= 3.7):

pandas==1.1.0

torch==1.6.0

scikit_learn==0.23.1

Dataset and Preprocessing

Download the public data

Download the sample datasets (eg. wikipedia and reddit) from

here and store their csv files in a folder named

data/.

Preprocess the data

We use the dense npy format to save the features in binary format. If edge features or nodes

features are absent, they will be replaced by a vector of zeros.

python utils/preprocess_data.py --data wikipedia --bipartite

python utils/preprocess_data.py --data reddit --bipartite

Model Training

Self-supervised learning using the link prediction task:

# TGN-attn: Supervised learning on the wikipedia dataset

python train_self_supervised.py --use_memory --prefix tgn-attn --n_runs 10

# TGN-attn-reddit: Supervised learning on the reddit dataset

python train_self_supervised.py -d reddit --use_memory --prefix tgn-attn-reddit --n_runs 10

Supervised learning on dynamic node classification (this requires a trained model from

the self-supervised task, by eg. running the commands above):

# TGN-attn: self-supervised learning on the wikipedia dataset

python train_supervised.py --use_memory --prefix tgn-attn --n_runs 10

# TGN-attn-reddit: self-supervised learning on the reddit dataset

python train_supervised.py -d reddit --use_memory --prefix tgn-attn-reddit --n_runs 10

Baselines

### Wikipedia Self-supervised

# Jodie

python train_self_supervised.py --use_memory --memory_updater rnn --embedding_module time --prefix jodie_rnn --n_runs 10

# DyRep

python train_self_supervised.py --use_memory --memory_updater rnn --dyrep --use_destination_embedding_in_message --prefix dyrep_rnn --n_runs 10

### Reddit Self-supervised

# Jodie

python train_self_supervised.py -d reddit --use_memory --memory_updater rnn --embedding_module time --prefix jodie_rnn_reddit --n_runs 10

# DyRep

python train_self_supervised.py -d reddit --use_memory --memory_updater rnn --dyrep --use_destination_embedding_in_message --prefix dyrep_rnn_reddit --n_runs 10

### Wikipedia Supervised

# Jodie

python train_supervised.py --use_memory --memory_updater rnn --embedding_module time --prefix jodie_rnn --n_runs 10

# DyRep

python train_supervised.py --use_memory --memory_updater rnn --dyrep --use_destination_embedding_in_message --prefix dyrep_rnn --n_runs 10

### Reddit Supervised

# Jodie

python train_supervised.py -d reddit --use_memory --memory_updater rnn --embedding_module time --prefix jodie_rnn_reddit --n_runs 10

# DyRep

python train_supervised.py -d reddit --use_memory --memory_updater rnn --dyrep --use_destination_embedding_in_message --prefix dyrep_rnn_reddit --n_runs 10

Ablation Study

Commands to replicate all results in the ablation study over different modules:

# TGN-2l

python train_self_supervised.py --use_memory --n_layer 2 --prefix tgn-2l --n_runs 10

# TGN-no-mem

python train_self_supervised.py --prefix tgn-no-mem --n_runs 10

# TGN-time

python train_self_supervised.py --use_memory --embedding_module time --prefix tgn-time --n_runs 10

# TGN-id

python train_self_supervised.py --use_memory --embedding_module identity --prefix tgn-id --n_runs 10

# TGN-sum

python train_self_supervised.py --use_memory --embedding_module graph_sum --prefix tgn-sum --n_runs 10

# TGN-mean

python train_self_supervised.py --use_memory --aggregator mean --prefix tgn-mean --n_runs 10

General flags

optional arguments:

-d DATA, --data DATA Data sources to use (wikipedia or reddit)

--bs BS Batch size

--prefix PREFIX Prefix to name checkpoints and results

--n_degree N_DEGREE Number of neighbors to sample at each layer

--n_head N_HEAD Number of heads used in the attention layer

--n_epoch N_EPOCH Number of epochs

--n_layer N_LAYER Number of graph attention layers

--lr LR Learning rate

--patience Patience of the early stopping strategy

--n_runs Number of runs (compute mean and std of results)

--drop_out DROP_OUT Dropout probability

--gpu GPU Idx for the gpu to use

--node_dim NODE_DIM Dimensions of the node embedding

--time_dim TIME_DIM Dimensions of the time embedding

--use_memory Whether to use a memory for the nodes

--embedding_module Type of the embedding module

--message_function Type of the message function

--memory_updater Type of the memory updater

--aggregator Type of the message aggregator

--memory_update_at_the_end Whether to update the memory at the end or at the start of the batch

--message_dim Dimension of the messages

--memory_dim Dimension of the memory

--backprop_every Number of batches to process before performing backpropagation

--different_new_nodes Whether to use different unseen nodes for validation and testing

--uniform Whether to sample the temporal neighbors uniformly (or instead take the most recent ones)

--randomize_features Whether to randomize node features

--dyrep Whether to run the model as DyRep

TODOs

Make code memory efficient: for the sake of simplicity, the memory module of the TGN model is

implemented as a parameter (so that it is stored and loaded together of the model). However, this

does not need to be the case, and

more efficient implementations which treat the models as just tensors (in the same way as the

input features) would be more amenable to large graphs.

Cite us

@inproceedings{tgn_icml_grl2020,

title={Temporal Graph Networks for Deep Learning on Dynamic Graphs},

author={Emanuele Rossi and Ben Chamberlain and Fabrizio Frasca and Davide Eynard and Federico

Monti and Michael Bronstein},

booktitle={ICML 2020 Workshop on Graph Representation Learning},

year={2020}

}

About

TGN: Temporal Graph Networks

Resources

Readme

License

Apache-2.0 license

Activity

Custom properties

Stars

846

stars

Watchers

25

watching

Forks

169

forks

Report repository

Releases

No releases published

Packages

0

No packages published

Contributors

5

Languages

Python

100.0%

Footer

© 2024 GitHub, Inc.

Footer navigation

Terms

Privacy

Security

Status

Docs

Contact

Manage cookies

Do not share my personal information

You can’t perform that action at this time.

trans-Golgi network,TGN是什么意思,释义 -生物医药大词典

trans-Golgi network,TGN是什么意思,释义 -生物医药大词典

词典  |  句库  |  诗词  |  成语 |  背单词  |  翻译 |  百科 

您现在的位置:生物医药大词典 >> 通用词典 >> 词汇解释:

trans-Golgi network,TGN

trans-Golgi network,TGN

分享到:

高尔基体反面网络结构

分类:

生物学词汇          |    查看相关文献(pubmed)   |    免费全文文献

详细解释:

陈志坚课题组将研究重点投向了NLRP3炎症小体。先前,科学家们发现它与诸多人类炎性疾病有关。不同的刺激,是如何激活NLRP3的呢?原来,相应的刺激能导致高尔基体反面网络结构(trans-Golgi network,TGN)的解体,而NLRP3会被招募到解体的位置。在那里,NLRP3保守的碱性氨基酸富集区(polybasic region)会和该解体结构的磷脂酰肌醇-4-磷酸(PtdIns4P)形成离子键。随后,该解体结构会充当框架的角色,让NLRP3聚集,使得ASC蛋白出现多聚化,从而激活下游的信号级联通路。倘若抑制NLRP3与PtdIns4P的结合,就会抑制相应通路。这些结果表明解体的TGN招募NLRP3,对于NLRP3的积聚和激活有重要作用。

以下为句子列表:

分享到:

赞助商链接

你知道它的英文吗?

·空间测距法

·空间插值分析

·连续时空系统

·多元空间回归分析

·自助法

·皮鞋流行病学

·洛匹那韦

·艾福洛扎

你知道中文意思吗?

·paraventricular thalamus

·phosphoribosyl ubiquitin,PR-Ub

·

·peak dose dyskinesia

·biphasic dyskinesia

·paroxysmal dyskinesias

·off-period dystonia

·SAPHO(synovitis-acne-pustulosis-hyperostosis-osteomyelitis syndrome)

热门分类

·常用8000词汇

·分子生物学词汇

·遗传学词汇

·内科学词汇

·药理学词汇

成为编辑 -

词典APP下载 -

关于 -

推荐 -

手机词典 -

隐私 -

版权 -链接 -

联系 -

帮助

©2008-至今 生物医药大词典- 自2008年3月1日开始服务

由生物谷www.bioon.com团队研发

沪ICP备14018916号-1

TGN:Temporal Graph Networks论文解读-CSDN博客

>

TGN:Temporal Graph Networks论文解读-CSDN博客

TGN:Temporal Graph Networks论文解读

最新推荐文章于 2024-03-08 19:47:53 发布

VIP文章

captainqxy

最新推荐文章于 2024-03-08 19:47:53 发布

阅读量4.9k

收藏

11

点赞数

分类专栏:

图神经网络

文章标签:

神经网络

数据挖掘

机器学习

深度学习

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

本文链接:https://blog.csdn.net/qq_40022890/article/details/113851578

版权

公众号 异度侵入

图神经网络(GNNs)的研究已经成为今年机器学习领域的热门话题之一。GNNs最近在生物、化学、社会科学、物理等领域取得了一系列成功。但GNN模型目前以静态图上偏多,然而现实世界许多关系是动态的,比如社交网络、金融交易和推荐系统,动态的变化包含了许多重要信息,只考虑静态图,很难捕捉到其中信息。

本篇文章发表在ICLR2020上,对动态图的节点进行连接预测。TGN中,作者除利用传统的图神经网络捕捉非欧式结构生成embedding外,还利用动态图所中时序信息。在本篇公众号里主要介绍TGN中embedding以及memory的更新机制,包含一小部分源码。

时序图示例

 

01

TGN模型结构

下图为TGN 的一个例子,包含了编码部分和解码部分,在文章中主要是介绍了如何使用TGN进行编码,生成embedding,文章中选择MLP层作为解码器。上面的图片可以理解为,对于节点2和节点4连接的可能性的预测,首先通过TGN生成t8时刻节点2和节点4的embedding,然后通过解码器生成节点2和节点4在t8时刻的连接的可能性。

 

最低0.47元/天 解锁文章

优惠劵

captainqxy

关注

关注

0

点赞

11

收藏

觉得还不错?

一键收藏

知道了

3

评论

TGN:Temporal Graph Networks论文解读

TGN:Temporal Graph Networks论文解读白马非马异度侵入今天“图神经网络(GNNs)的研究已经成为今年机器学习领域的热门话题之一。GNNs最近在生物、化学、社会科学、物理等领域取得了一系列成功。但GNN模型目前以静态图上偏多,然而现实世界许多关系是动态的,比如社交网络、金融交易和推荐系统,动态的变化包含了许多重要信息,只考虑静态图,很难捕捉到其中信息。”本篇文章发表在ICLR2020上,对动态图的节点进行连接预测。TGN中,作者除利用传统的图神经网络捕捉非...

复制链接

扫一扫

专栏目录

Spatial Temporal Graph Convolutional Networks

02-10

时空图卷积网络用于基于骨架的动作识别,Spatial Temporal Graph Convolutional Networks for Skeleton Based Action Recognition,2018年AAAI论文

TGN: TEMPORAL GRAPH NETWORKS FOR DEEP LEARNING ON DYNAMIC GRAPHS论文笔记

年年年的博客

05-08

1526

TEMPORAL GRAPH NETWORKS FOR DEEP LEARNING ON DYNAMIC GRAPHS摘要贡献背景静态图表示学习动态图表示学习

摘要

本文提出了时间图网络(TGNs),这是一种通用的,有效的框架,可用于对以时间事件序列表示的动态图进行深度学习。

贡献

提出了时间图网络(TGN)的通用归纳框架,该框架在以事件序列表示的连续时间动态图上运行,并表明许多以前的方法都是TGN的特定实例。

新颖的训练策略,允许模型从数据的顺序中学习,同时保持高效的并行处理。

作者对框架的不同组成部

3 条评论

您还未登录,请先

登录

后发表或查看评论

区块链智能合约&恶意交易2022-2024相关论文及idea

eliforsharon的博客

12-30

2761

这篇论文介绍了一种名为BlockScope的工具,旨在检测和调查从比特币和以太坊传播到其分叉项目中的漏洞。作者发现了101个先前未知的漏洞,并对漏洞的传播和修补过程进行了深入调查。研究结果显示,比特币的分叉项目发布修补程序的延迟通常很长,大多数超过200天,而以太坊的分叉项目的修补程序发布延迟相对较短,大部分在100天左右。方法论:作者提出了一种基于补丁的克隆检测方法,用于在分叉项目中检测易受攻击的代码克隆。

图神经网络的重要分支:时间图网络

AI蜗牛车

09-13

1936

译者 |Sambodhi编辑 | 海边的拾遗者导读在本文中,作者将描述时间图网络(Temporal Graph Network,TGN),这是一个用于深度学习动态图的通用框架。许多现实...

论文代码阅读:TGN模型训练阶段代码理解

YxinMiracle's Studio.

12-10

107

TGN模型训练阶段代码理解

tgn:TGN

03-31

TGN:时间图网络[ , ,]

动态图

TGN

介绍

尽管有很多用于图上深度学习的不同模型,但是迄今为止,很少有人提出处理具有某种动态性质(例如,随着时间的推移而变化的特征或连通性)的图的方法。

在本文中,我们介绍了时间图网络(TGN),这是一种通用的,有效的框架,用于对表示为定时事件序列的动态图进行深度学习。 多亏了内存模块和基于图形的运算符的新颖结合,TGN能够显着优于以前的方法,同时在计算效率上也更高。

我们进一步表明,可以将先前在动态图上进行学习的几种模型转换为我们框架的特定实例。 我们对框架的不同组成部分进行了详细的消融研究,并设计出了最佳配置,该配置在动态图的数个转导和归纳预测任务上均实现了最先进的性能。

论文链接:

运行实验

要求

依赖关系(使用python> = 3.7):

pandas==1.1.0

torch==1.6.0

scikit_learn==0.2

【论文下饭】Temporal Graph Network for Deep Learning on Dynamic Graphs

LittleSeedling的博客

04-27

3565

文章目录1 介绍2 背景3 Temporal Graph Network3.1 核心模块MemoryMessage Function(msg)Message Aggregator(agg)Memory Updater(mem)Embedding(emb)3.2 训练4 相关工作5 实验5.1 性能表现(实验结果)5.2 模块选择MemoryEmbedding MoudleMessage AggregatorNumber of layers6 结论

综述

Representation Learning for

TGN:Temporal Graph Networks for Deep Learning on Dynamic Graphs

yxh的博客

08-31

4966

2、Background

2.1 Deep learning on static graphs

一个静态图 G=(V,E)\mathcal{G}=(\mathcal{V},\mathcal{E})G=(V,E) 包含结点 V=1,...,.n\mathcal{V}={1,...,.n}V=1,...,.n 和边 E⊆V×V\mathcal{E}\subseteq\mathcal{V}\times\mathcal{V}E⊆V×V,军备赋予了 features,对于所有的 i,j=1,...,ni,j=1,..

【计算机视觉】Graph Models算法介绍合集(二)

wzk4869的博客

09-17

220

【计算机视觉】Graph Models算法介绍合集(二)

图神经网络可解释性Slide:GNNExplainer: Generating Explanations for Graph Neural Networks

Drchen

01-28

985

参考素材:

https://blog.csdn.net/weixin_40505645/article/details/105781034

Temporal Graph Networks for Deep Learning on Dynamic Graphs

Milkha的博客

03-01

937

文章目录1 前言2 问题定义3 TGN思路3.1 Memory3.2 Message Function3.3 Message Aggregator3.5 Memory Updater3.5 Embeddings4 方法的优势与局限性

论文地址:https://arxiv.org/pdf/2006.10637.pdf

来源:ICML 2020 Workshop

slides:tgn

源码地址:tgn

关键词:graph representation, temporal graph

1 前言

该论文主要解决

Attention Based Spatial-Temporal Graph Convolutional Networks for Traffic Flow Forecasting

02-08

Attention Based Spatial-Temporal Graph Convolutional Networks for Traffic Flow Forecasting

毕业设计源码java-Temporal_Graph_library:Temporal_Graph_library

06-06

毕业设计源码java

Temporal_Graph_library

Tink

该存储库包含库

Tink,这是一个使用

Flink

数据流进行时态图分析的库。

此自述文件包含库的基本设置。

这仍在进行中,以后可能会扩展。

项目信息

由于该库中的所有内容都与图形有关,因此我们广泛使用了。

这是一个库,允许我们以分布式方式创建/修改和删除图中的注释和顶点。

关于时态图有不同的定义,对于这个项目,我们将时态图定义为一组边

E

和一组顶点

V,一个顶点由节点

ID

和标签

(K,L)

组成。

一条边由源节点、目标节点、标签、开始和结束时间(V_1、V_2、L、T_1、T_2)组成。

如您所见,我只考虑边缘的时间方面。

该库更重要的方面之一是时间最短路径。

最短时间路径可以根据您解释数据的方式以不同方式定义。

在这个项目中,我们区分了两种最短的时间路径:

EAT,最早到货时间。

在时间图中,从

v

w

的最短时间路径

EAT

是到达时间最早的路径。

如果您的时间图是道路网络,那么您的最短路径

EAT

将是将您从源头带到目的地最快的路径。

FP,最快路径在时间图中,从

v

w

的最短时间路径

dynamic-graph-papers:动态图表示论文汇总

03-20

动态图表示学习,动态图分析论文汇总项目

本项目总结了动态图表示学习的有关论文,该项目在持续更新中,欢迎大家看/星/叉!

如果大家有值得推荐的工作,可以在问题中提出要推荐的工作,论文下载链接及其工作亮点(有优秀代码实现的工作,会优先考虑在内)。项目中表述有误的部分,也可以在issue中提出。感谢!

引流:【这也是我们的工作,欢迎手表/星/叉】

社交知识图谱专题: :

目录如下:

静态图表示与分析工作

针对静态图表示学习以及静态图分析,挖掘领域,挑选出个人认为值得继承的引用数更高,知名度较高的或最近的一些工作。

node2vec:网络的可扩展功能学习

作者:Grover A,Leskovec J.(阿姆斯特丹大学)

发表时间:2016

发表于:KDD 2016

标签:图表示学习

概述:依据表示学习,提出了一套在网络中学习连续连续类型表示的方法,取代了传统使用人工定义的例程结构化特征的方式

TGN-个人存储-Temporal Graph(请勿下载).zip

10-23

注:请勿下载。

其中,ml_wikipedia 应该是为原版CSV文件,找到较为不易,数据集较大。且若在本机训练,耗费时间较长(几十个小时起步)。

若 ml_wikipedia文件不大,但是其中的数据条数够,那就是压缩过的数据,数据不完全,但也能训练,不推荐使用少的,但是练习时也是可以试试的!

神经网络 梯度与神经元参数w、b关系;梯度与导数关系

weixin_42357472的博客

03-08

758

∂w∂cost​参考:https://blog.csdn.net/weixin_44259490/article/details/90295146。

Pytorch学习 day07(神经网络基本骨架的搭建、2D卷积操作、2D卷积层)

u011453680的博客

03-08

285

神经网络基本骨架的搭建

神经网络softmax算法与卷积层

最新发布

princess_pig的博客

03-08

383

我们在最后的输出层,不再使用我们的soft Max算法,而是直接用我们的线性激活函数代替它,而在我们的损失算法中加入返回我们的输出值,这样一来,我们从原来的到其中的概率转变为了的到其中的值。这里的卷积层,就是我们的输入层是我们的卷积层,而我们的隐藏层中的神经元,会每个分别扫描不同的部分,而不是全部的卷积层,这也会带来一些优点,第一就是它的运行速度会更快,第二就是所需要的训练的数据更少。多类是分类算法中的一种,它区别于我们的0,1这样子的二进制分类,它会有多个分类的标签,让我们去取其中的一个。

第二门课:改善深层神经网络<超参数调试、正则化及优化>-深度学习的实用层面

qq_43501462的博客

03-08

593

2]是最大的权重矩阵,因为拥有最大参数集,即7×7,为了预防矩阵的过拟合,对于这一层(第二层),它的keep-prob值应该相对较低,假设是0.5。对于其它层,过拟合的程度可能没那么严重,它们的keep-prob值可能高一些,可能是0.7,这里是0.7。Dropout遍历网络的每一层,并设置消除神经网络中节点的概率,假设每个节点得以保留和消除的概率为0.5,设置完节点概率,消除一部分节点,然后消除从该节点进出的连线,最后得到一个节点更少、规模更小的网络,然后使用backprop进行训练。

tdn: temporal difference networks for efficient action recognition

03-16

TDN是一种用于高效行为识别的时间差网络。它结合了时间差学习和卷积神经网络,能够在不需要额外的光流或时间序列数据的情况下,对视频进行高效的行为识别。TDN的设计使得它能够在处理大规模视频数据时具有较高的效率和准确性。

“相关推荐”对你有帮助么?

非常没帮助

没帮助

一般

有帮助

非常有帮助

提交

captainqxy

CSDN认证博客专家

CSDN认证企业博客

码龄7年

暂无认证

6

原创

32万+

周排名

120万+

总排名

2万+

访问

等级

77

积分

8

粉丝

9

获赞

13

评论

86

收藏

私信

关注

热门文章

TGN:Temporal Graph Networks论文解读

4907

ogbn-arxiv——图结构数据集的可视化

3893

使用transformers从头训练Bert

2996

神奇的PyG:快速实现Node2vector

2192

DyRep: Learning Representations over Dynamic Graphs解读

1317

分类专栏

GAN

1篇

图神经网络

4篇

比赛系列

2篇

最新评论

TGN:Temporal Graph Networks论文解读

追光者♂:

学到了新的知识~

ogbn-arxiv——图结构数据集的可视化

qq_36943535:

请问这些数据很大嘛?为啥我一直在‘dataset = PygGraphPropPredDataset’这里面出不来?

使用transformers从头训练Bert

高级混子:

请问数据格式大致是什么样子的呀,我不太看得懂第一段处理data的逻辑,方便给1到2个sample调试吗

DyRep: Learning Representations over Dynamic Graphs解读

音程:

有点敷衍哈。

神奇的PyG:快速实现Node2vector

Cyril_KI:

不需要,直接从原图中采样然后训练,可以参考:https://blog.csdn.net/Cyril_KI/article/details/122006277

最新文章

2021-04-04

ogbn-arxiv——图结构数据集的可视化

神奇的PyG:快速实现Node2vector

2021年6篇

目录

目录

分类专栏

GAN

1篇

图神经网络

4篇

比赛系列

2篇

目录

评论 3

被折叠的  条评论

为什么被折叠?

到【灌水乐园】发言

查看更多评论

添加红包

祝福语

请填写红包祝福语或标题

红包数量

红包个数最小为10个

红包总金额

红包金额最低5元

余额支付

当前余额3.43元

前往充值 >

需支付:10.00元

取消

确定

下一步

知道了

成就一亿技术人!

领取后你会自动成为博主和红包主的粉丝

规则

hope_wisdom 发出的红包

实付元

使用余额支付

点击重新获取

扫码支付

钱包余额

0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

图神经网络的重要分支:时间图网络-CSDN博客

>

图神经网络的重要分支:时间图网络-CSDN博客

图神经网络的重要分支:时间图网络

最新推荐文章于 2024-03-05 11:04:50 发布

AI蜗牛车

最新推荐文章于 2024-03-05 11:04:50 发布

阅读量1.9k

收藏

16

点赞数

1

文章标签:

神经网络

大数据

编程语言

python

机器学习

译者 | Sambodhi

编辑 | 海边的拾遗者

导读

在本文中,作者将描述时间图网络(Temporal Graph Network,TGN),这是一个用于深度学习动态图的通用框架。

许多现实世界的问题涉及各种性质的交易网络、社会互动和交往,这些都是动态的,可以将其建模为图,其中,节点和边会随着时间的推移而出现。在本文中,我们将描述时间图网络(Temporal Graph Network,TGN),这是一个用于深度学习动态图的通用框架。

本文是 Michael Bronstein 与 Emanuele Rossi 共同撰写的。

图神经网络的研究已经成为今年机器学习领域 炙手可热 的话题之一。最近,图神经网络在生物学、化学、社会科学、物理学和许多其他领域的问题上,取得了一系列成功。到目前为止,图神经网络模型主要是针对静态图而开发的,静态图不会随着时间而改变。然而,许多有趣的现实世界图都是动态的,并且会随着时间的推移而不断变化,突出的例子包括社交网络、金融交易和推荐系统。在许多情况下,正是这种系统的动态行为传达了重要的见解,否则,如果只考虑静态图的话,就会失去这种见解。

Twitter 用户与推文进行交互并相互关注的动态网络。所有边都有时间戳。给定这样的动态图,我们想预测未来的交互,例如,用户会喜欢哪些推文,或者他们会关注谁。

动态图可以表示为定时事件的有序列表或异步“流”,例如节点和边的添加或删除【1】。像 Twitter 这样的社交网络就是一个很好的例子:当一个人注册 Twitter 账户时,就会创建一个新的节点。当他们关注另一个用户时,就会创建“关注”边。当他们更改其配置文件时,该节点将被更新。

该事件流由编码器神经网络接受,这个编码器神经网络为图的每个节点生成时间相关的嵌入。然后,可以将嵌入馈送到为特定任务而设计的解码器中。一个例子是通过尝试回答以下问题来预测未来的交互:在时刻 t ,节点 i 和 j 之间具有边的概率是多少?回答这个问题的能力对于推荐系统至关重要,例如,建议社交网络用户关注谁,或者决定显示哪些内容。下图演示了这种场景:

一个时间图网络的例子,它接收了具有七条可见边(时间戳为 t₁ 到 t₇ )的动态图,目的是预测节点 2 和节点 4 在时刻 t₈ (灰色边 t₈ )的未来交互。为此,时间图网络在时刻 t₈ 计算节点 2 和 4 的嵌入。然后,将这些嵌入连接起来并馈送到解码器(如 MLP),该解码器输出交互发生的概率。

以上设置中的关键部分是编码器,可以与任何解码器一起训练。对于上面提到的未来交互预测任务,可以采用自监督的方式进行训练:在每个轮数(epoch)中,编码器按时间顺序处理事件,并根据前面的时间预测下一次交互【2】。

时间图网络是我们与同事 Fabrizio Frasca、Davide Eynard、Ben Chamberlain 和 Federico Monti 共同开发的通用编码器架构【3】。该模型可应用于表示为事件流的动态图上的各种学习问题。简而言之,时间图网络编码器根据节点的交互创建节点的压缩表示,并在每个事件发生时更新节点。要实现这一点,时间图网络有以下主要组件:

内存 。内存存储所有节点的状态,作为节点过去交互的压缩表示。它类似于 RNN 的隐状态。但是,在这里,对于每个节点 i ,都有单独的状态向量 sᵢ(t) 。当一个新节点出现时,我们添加一个相应的状态,初始化为零向量。此外外,由于每个节点的内存只是一个状态向量(而非参数),因此,当模型接受新的交互时,也可以在测试时进行更新。

消息函数 是内存更新的主要机制。给定节点 i 和 j 在时刻 t 的交互,消息函数计算两条消息(一条用于 i ,一条用于 j ),用于更新内存。这类似于在消息传递图神经网络【4】中计算的消息。该消息是在节点 i 和 j 在时刻 t 之前交互时的内存函数,交互时刻 t 和边特征为【5】:

内存更新程序 用于使用新消息更新内存。这个模块通常作为 RNN 来实现。

假设节点的内存是随时间更新的向量,最直接的方法是将其直接用作节点嵌入。然而,在实践中,由于陈旧性问题的存在,这并不是一个好主意:假设仅当节点参与交互时才更新内存,则节点的长时间不互动会导致其内存过期。举个例子,假设一个用户有几个月没有使用 Twitter。当用户回到 Twitter 时,他们可能已经在此期间发展出了新的兴趣,因此,对他们过去活动的内存就不再相关了。因此,我们需要一种更好的方法来计算嵌入。

嵌入 。一种解决方案是查看邻近节点。为了解决陈旧性问题,嵌入模块通过在节点的时空邻居上执行图聚合来计算节点的时间嵌入。即使一个节点已处于非活动状态一段时间,它的一些邻居也可能处于活动状态,通过聚合它们的内存,时间图网络可以为该节点计算一个最新嵌入。在我们的示例中,即使用户不上 Twitter,但他们的朋友仍然是活跃的,所以,当他们回来的时候,朋友最近的活动可能比用户自己的历史记录更相关。

图嵌入模块通过在目标节点的时间邻域上执行聚合来计算目标节点的嵌入。在上图中,当计算节点 1 在某个时刻 t 大于 t₂ 、 t₃ 和 t₄ ,但小于 t₅ 时的嵌入时,时间邻域将近包含时刻 t 之前出现的边。因此,节点 5 的边不参与计算,因为它在将来发生。相反,嵌入模块将邻近 2、3、4 的特征 (v) 和内存 (s) 以及边上的特征聚合起来,以计算节点 1 的表示。在我们的实验中,性能最好的图嵌入模块是图注意力模块,它可以根据邻居的记忆、特征和交互时间来判断哪些邻居是最重要的。

时间图网络对一批训练数据执行的总体计算总结如下图所示:

时间图网络对一批训练数据进行的计算。一方面,嵌入由嵌入模块使用时间图和节点的内存 (1) 生成嵌入。然后使用嵌入预测批量交互作用并计算损失 (2,3)。另一方面,这些相同的交互用于更新内存 (4,5)。

通过查看上图,你可能想知道内存相关模块(消息函数、消息聚合器和内存更新器)是如何训练的,因为它们似乎不会直接影响损失,因此不会收到梯度。为了让这些模块能够影响损失,我们需要在预测批交互之前更新内存。然而,这将会导致泄漏,因为内存中已经包含了我们试图预测的信息。我们提出的解决这个问题的策略是用来自前一批的消息更新内存,然后预测交互。时间图网络的操作流程如下图所示,这是训练内存相关模块所必需的:

对内存相关模块进行训练所需的时间图网络的操作流程。引入了一个新组件,即原始消息存储库,它存储了计算消息所需的信息,我们称之为原始消息,用于模型过去处理过的交互。这允许模型将交互带来的内存更新延迟到以后的批处理。首先,使用从存储在先前批次(1 和 2)中的原始消息计算的消息来更新内存。然后可以使用刚刚更新的内存(灰色连接)(3) 来计算嵌入。通过这样做,内存相关模块的计算直接影响损失 (4,5),并且他们接收梯度。最后,这个批处理交互的原始消息存储在原始小村存储库 (6) 中,以便在将来的批处理中使用。

通过在各种动态图上进行深入的实验验证,在未来边预测和动态节点分类的任务上,时间图网络在正确率和速度上都明显优于竞争方法【6】。维基百科(Wikipedia)就是这样的一个动态图,其中用户和页面是节点,交互表示用户编辑页面。编辑文本的编码用作交互特性。本例中的任务是预测用户将在给定时间编辑哪个页面。我们用基线方法比较了时间图网络的不同变体:

在预测正确率和时间方面,比较时间图网络和旧方法(TGAT 和 Jodie)对维基百科数据集上未来链接预测的各种配置。我们希望有更多的论文,以严谨的方式报道这两个重要标准。

这项消融研究揭示了不同时间图网网络模块的重要性,并使我们能够得出一些一般性结论。首先,内存很重要:内存的缺失会导致性能的大幅下降【7】。其次,嵌入模块的使用(与直接输出内存状态相反)很重要。基于图注意力的嵌入表现最好。第三,拥有内存使得只使用一个图注意力层就足够了(这大大减少了计算时间),因为一跳邻居的内存使模型能够间接访问二跳邻居的信息。

作为结束语,我们认为动态图的学习的研究领域几乎就是个“处女地”,有许多重要和令人兴奋的应用以及重大的潜在影响。我们相信,我们的时间图网络模型是朝着提高学习动态图的能力迈出的重要一步,巩固并扩展了以前的结果。随着这一研究领域的发展,更好、更大的基准将变得至关重要。我们现在正致力于创建新的动态图数据集和任务,作为 Open Graph Benchmark 的一部分。

参考文献

【1】 这种情况通常被称为“连续时间动态图”。为简单起见,这里我们只考虑节点对之间的交互事件,在图中用边来表示。当其中一个端点不在图中时,节点插入被认为是新边的一种特殊情况。我们不考虑节点或边的删除,这意味着图只能随时间增长。由于一对节点之间可能有多条边,从技术上讲,我们拥有的对象是多重图。

【2】 多个交互可以具有相同的时间戳,并且模型可以独立地预测每个交互。此外,通过将时间的有序列表拆分成固定大小的连续块,可以创建迷你批。

【3】 《 用于动态图深度学习的时间图网络》(Temporal graph networks for deep learning on dynamic graphs),E. Rossi 等人,2020 年,arXiv:2006.10637。

【4】 为简单起见,我们假设该图是无向的。在有向图的情况下,需要两个不同的消息函数,一个用于源,一个用于目的地。

【5】 《 量子化学的神经信息传递》(Neural Message Passing for Quantum Chemistry),J. Gilmer 等人,2017 年,arXiv:1704.01212。

【6】 对于动态图的深度学习,目前只有少数几种方法,如《 时间图的归纳表示学习》(Inductive representation learning on temporal graphs)的时间图网络,D. Xu 等人,2020 年,arXiv:2002.07962;以及《 时间交互网络中的动态嵌入轨迹的预测》(Predicting dynamic embedding trajectory in temporal interaction networks)的 Jodie,S. Kumar 等人,2019 年,arXiv:1908.01207。我们证明了这些方法可以作为时间图网络的特殊配置来获得。由于这一原因,时间图网络似乎是目前在动态图学习上最为通用的模型。

【7】 虽然内存包含关于一个节点过去所有交互作用的信息,但图嵌入模块只能访问时间邻域的样本(出于计算原因),因此可能无法访问对手头任务至关重要的信息。

作者介绍:

Michael Bronstein,伦敦帝国理工学院教授,Twitter 图机器学习研究负责人,CETI 项目机器学习主管、研究员、教师、企业家和投资者。

公众号:AI蜗牛车

保持谦逊、保持自律、保持进步

优惠劵

AI蜗牛车

关注

关注

1

点赞

16

收藏

觉得还不错?

一键收藏

知道了

0

评论

图神经网络的重要分支:时间图网络

译者 |Sambodhi编辑 | 海边的拾遗者导读在本文中,作者将描述时间图网络(Temporal Graph Network,TGN),这是一个用于深度学习动态图的通用框架。许多现实...

复制链接

扫一扫

【ICLR2022】图神经网络复杂时间序列建模

04-15

在许多领域,包括医疗保健、生物和气候科学,时间序列是不规则的采样,连续读数之间的时间间隔不同,不同的变量子集(传感器)在不同的时间点观测。在收集传感器测量数据时,经常存在一些实际问题,这些问题会导致各种类型的不正常现象,例如成本节约、传感器故障、物理场景中的外部力量、医疗干预等等。

虽然时间序列的机器学习方法通常假设完全可观察和固定大小的输入,但不规则采样的时间序列提出了相当大的挑战。例如,传感器的观测结果可能没有对齐,相邻读数之间的时间间隔可能因传感器而异,不同的样本可能在不同的时间记录不同数量的读数。

时序图神经网络总结(1)

qq_42275073的博客

02-04

5497

本系列是整理关于用图神经网络(特别是图卷积)来建模时序图数据的论文。

2016-2017基本概念论文1 Structural Sequence Modeling with Graph Convolutional Recurrent NetworksMotivationMethodModel 1Model 2Result论文2 Spatio-Temporal Graph Convolutional Networks: A Deep Learning Framework for Traffic Forecast

参与评论

您还未登录,请先

登录

后发表或查看评论

图神经网络实战视频课程

08-29

分享一套图神经网络课程,视频+源码+数据+文档,资料齐全。

课程介绍:

图神经网络(Graph Neural Network,GNN)是指使用神经网络来学习图结构数据,提取和发掘图结构数据中的特征和模式,满足聚类、分类、预测、分割、生成等图学习任务需求的算法总称。

课程目录:

第1章 图神经网络基础

第2章 图卷积GCN模型

第3章 图模型必备神器PyTorch Geometric安装与使用

第4章 使用PyTorch Geometric构建自己的图数据集

第5章 图注意力机制与序列图模型

第6章 图相似度论文解读

第7章 图相似度计算实战

第8章 基于图模型的轨迹估计

第9章 图模型轨迹估计实战

时序图神经网络总结(2)

qq_42275073的博客

02-05

1032

2018论文3 Spatial temporal graph convolutional networks for skeleton-based action recognition. AAAI 2018论文4 Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting. ICLR 2018

论文3 Spatial temporal graph convolutional networks for ske

图神经网络(Graph Neural Networks)简单介绍

百年孤独百年的博客

05-24

7585

图神经网络(Graph Neural Networks, GNN)是一类用于处理图结构数据的神经网络模型,与传统的神经网络(例如卷积神经网络、循环神经网络等)处理规则数据结构(如图像、时间序列)不同,图神经网络专门处理不规则的图结构数据,如社交网络、知识图谱等。图结构数据是一种由节点和边组成的复杂关系网络,其中节点代表实体,边代表实体之间的关系。与传统的神经网络不同,图神经网络需要考虑节点之间的关系,因此需要一种新的方式来表示节点和边。

GraphBind: 通过层次图神经网络学习蛋白质局部结构嵌入规则以用于识别核酸结合残基

LIYUO94的博客

08-03

1989

《GraphBind: protein structural context embedded rules learned by hierarchical graph neural networks for recognizing nucleic-acid-binding residues》

作者:夏莹,春秋夏,潘晓勇,沈宏斌

单位:上海交通大学

发表时间:2021年2月12日

发表期刊:Nucleic Acids Research

paper

code and dataset

...

深度学习之循环神经网络(4)RNN层使用方法

weixin_43360025的博客

10-05

880

深度学习之循环神经网络(4)RNN层使用方法1. SimpleRNNCell2. 多层SimpleRNNCell网络3. SimpleRNN层

 在介绍完循环神经网络的算法原理之后,我们来学习如何在TensorFlow中实现RNN层。在TensorFlow中,可以通过layers.SimpleRNNCell来完成σ(Wxhxt+Whhht−1+b)σ(\boldsymbol W_{xh} \boldsymbol x_t+\boldsymbol W_{hh} \boldsymbol h_{t-1}+\bold

图学习02—图神经网络的发展

kuxingseng123的博客

02-16

983

慢慢的将图神经网络全部都搞定都行啦的样子与打算。

时空图神经网络(ST-GNN)

zuiyishihefang的博客

06-01

6908

1. 文章信息文章题为《SPACE-TIME GRAPH NEURAL NETWORKS》,提出了一种新颖的图网络结构。2. 摘要文章介绍了时空图神经网络(ST-GNN),这是一种新的GNN结构,专门用于联合处理时变网络数据的基本时空拓扑。文章提出的体系结构由时间和图卷积滤波器组成,以及逐点非线性激活函数。文章首先介绍了卷积算子的一般定义,它模拟信号在其底层支持上的扩散过...

多元时间序列预测之(三)基于图神经网络的Graph-Wavenet与MTGNN

RicardoOzZ的博客

04-17

6910

文章目录1.关于深度残差学习2.Wavenet与TCN因果卷积与膨胀因果卷积残差连接与跳过连接3.Graph-Wavenet 模型图卷积层(GCN)4.MTGNN 模型图学习层图卷积模块时间卷积模块

本文作为系列第三讲,将正式介绍基于图神经网络的多元时间预测方法。

本文所讲解的Graph-Wavenet与MTGNN是Wu等人先后于2019年和2020年提出的模型,可以认为前者是后者的前身,我认为MTGNN的提出正式开创了基于图网络进行多元时间序列预测的先河。

相关论文(按知识点先后顺序排列):

Dee

【全网首发】Pytorch深度学习与图神经网络卷1:基础知识

01-15

Pytorch深度学习与图神经网络卷1:基础知识的ppt与code下载

图神经网络课程PPT.zip

12-02

图神经网络课程PPT.zip

图神经网络实战视频教程

09-14

分享一套图神经网络的课程,视频+源码+文档资料下载 课程大纲: 第1章 图神经网络基础 第2章 图卷积GCN模型 第3章 图模型必备神器PyTorch Geometric安装与使用 第4章 使用PyTorch Geometric构建自己的图数据集 第5...

【神经网络与深度学习】时间卷积网络(TCN)

qq_51467258的博客

03-04

1056

时间卷积网络(TCN)的总体概述,膨胀卷积以及感受野等相关名词解释

Elasticsearch搜索引擎

qq_53573029的博客

03-02

1401

什么是elaticsearch?一个开源的分布式搜索引擎,可以用来实现搜索,日志统计,分析,系统监控等功能什么是elastic stack(ELK)?是以elaticsearch为核心的技术栈,包括bears,Logstash,kibana,elaticsearch什么是Lucene?是Apache的开源搜索引擎类库,提供了搜索引擎的核心API什么是文档和词条?每一条数据就是一个文档对文档中的内容分词,得到的词语就是词条什么是正向索引?基于文档id创建索引,查询词条时必须先找到文档,而后判断是否包含词条。

探索数据宇宙:深入解析大数据分析与管理技术

Srlua的博客

03-02

1687

数据集成的目的是保证数据的质量和可信性。大数据价值大(Value)的特性虽然意味着大数据蕴含了巨大价值,但是大数据同时也存在价值密度低的特点,体现在大数据中存在大量的冗余数据、噪音数据、遗漏数据和错误数据。NoSQL数据库采用类似键/值、列族、文档和图(Graph)等非关系数据模型,通常没有固定的表结构,没有复杂的查询优化机制,也没有严格的事务 ACID 特性的约束,因此和关系型数据库相比,NOSQL数据库具有更优秀的查询效率更灵活的横向可扩展性和更高并发处理性,并能够存储和处理非结构化数据。

优思学院|质量和企业的盈利能力有何关系?

最新发布

优思学院

03-05

386

而高质量的产品意味着符合性质量的提升,带来较低的返工率、更少的缺陷和更高效的生产过程。所以管控好质量成本,将可有效高公司获利能力,优思学院估计,当企业能够提升过程的能力,从三个西格玛提升至六西格玛之后,公司的质量成本有望减少至营业额至少于1%。最常用的方法是从总账开始,注意专门用来跟踪质量成本的账目,如返工、浪费、报废、保修索赔等,可以帮助确定一些其他成本,这些资讯能为公司将来推动六西格玛奠定稳固基础。图表显示,盈利能力的提升主要来源于三个方面:更高的销售额、更高的价格以及更低的生产成本。

智能运维管理系统平台:数字化转型时代的运维先锋

MXsoft618的博客

03-05

1075

综上所述,监控易在智能运维中通过提供开放性和可扩展性的接口、支持多种标准协议和数据格式、提供灵活的数据处理和分析能力以及提供统一的监控和管理平台等方式与其他系统进行集成。作为一款全面而高效的运维管理工具,它通过引入人工智能、大数据分析等先进技术,实现了运维工作的智能化、自动化和可视化,有效应对了数字化转型时代运维行业所面临的挑战。以监控易为代表的智能运维管理系统平台,通过引入人工智能、大数据分析等先进技术,实现了运维工作的智能化、自动化和可视化,有效应对了上述挑战。

flink: 从kafka读取数据

amadeus_liu2的博客

03-04

641

kafka为2.x版本。

深入浅出图神经网络:gnn原理解析 pdf

05-02

《深入浅出图神经网络:gnn原理解析》这本书是一本关于图神经网络的入门书籍。本书主要介绍了图神经网络的发展历程、基本概念、原理及其应用。

首先,本书介绍了图神经网络的概念和发展历程。图神经网络是一种以图形结构为基础的人工神经网络,它最初是由Yann LeCun等人提出的。近些年,由于其在社交网络、推荐系统等领域的广泛应用,图神经网络逐渐被视作一种重要的机器学习方法,受到了越来越多的关注和研究。

接着,本书阐述了图神经网络的基本概念和原理。与传统的神经网络不同,图神经网络的输入是一个图形结构,而且图形结构中的节点之间具有不同的边权和节点边关系。因此,图神经网络需要将这种复杂的结构转换为向量表示,以便进行进一步的计算。这一过程使用了各种技术,包括图卷积神经网络(GCN)、注意力机制等。

最后,本书对图神经网络的应用进行了介绍。图神经网络有广泛的应用领域,包括社交网络分析、推荐系统、自然语言处理等。本书重点介绍了图神经网络在社交网络分析和推荐系统中的应用实例,包括社交网络中用户关系的分析、推荐系统中商品推荐的优化等。

总的来说,《深入浅出图神经网络:gnn原理解析》这本书语言简洁、内容全面,非常适合初学者入门。同时,本书也适合对图神经网络有一定了解,想要进一步深入研究的读者参考。

“相关推荐”对你有帮助么?

非常没帮助

没帮助

一般

有帮助

非常有帮助

提交

AI蜗牛车

CSDN认证博客专家

CSDN认证企业博客

码龄8年

暂无认证

251

原创

2462

周排名

912

总排名

241万+

访问

等级

1万+

积分

3万+

粉丝

2363

获赞

869

评论

1万+

收藏

私信

关注

热门文章

java.net.SocketException: socket closed 解决方式

66991

【openpyxl】python中对Excel进行写入操作,写入一列或者一行(从excel中读出label和feature对应格式方法以及插入一行或者一列方法实现)

55769

【时间序列】时间序列数据的缺失填补方法总结

38519

【手把手AI项目】一、安装win10+linux-Ubuntu16.04的双系统(超细致)

30506

VS2017出现: Microsoft C++ 异常: cv::Exception,位于内存位置 0x000000D99016F6B0 处。

26645

分类专栏

随笔

31篇

时间序列

3篇

TOOLS

2篇

机器学习面试

1篇

时空序列预测

13篇

pytorch学习笔记

2篇

异常检测

2篇

串讲总结

1篇

Tensorflow学习笔记

9篇

数据挖掘学习笔记

4篇

《AI paper》论文学习笔记

2篇

Deep Learning

30篇

Data mining

7篇

Machine Learning

1篇

android

14篇

qt

5篇

TensorFlow

13篇

caffe

9篇

ncnn

1篇

CV

4篇

opencv

3篇

STM32

1篇

feelings

2篇

plans

1篇

PyTorch

1篇

Time Series

4篇

最新评论

Pytorch深度学习实战教程:UNet语义分割网络

weixin_45919527:

讲解很仔细,谢谢大佬!

【串讲总结】RNN、LSTM、GRU、ConvLSTM、ConvGRU、ST-LSTM

石头12223:

GRU公式里的H状态更新公式错了,和你之前文章里的不一样

【时间序列】基于图神经网络的多变量时间序列异常检测

m0_74097916:

我用过5个

使用Pytorch从头实现Canny边缘检测

Mokeyy:

调了一上午,还调不通,建议大家用前先斟酌有没有时间

使用Pytorch从头实现Canny边缘检测

Mokeyy:

一会用cuda,一会用numpy,类型根本都不匹配

最新文章

最全的检索增强生成(RAG)技术概览

谷歌大模型Gemma介绍、微调、量化和推理

MSRA魔改Prompt,显著提升大模型时间序列预测效果

2024年26篇

2023年203篇

2022年406篇

2021年340篇

2020年139篇

2019年118篇

2018年27篇

2017年26篇

目录

目录

分类专栏

随笔

31篇

时间序列

3篇

TOOLS

2篇

机器学习面试

1篇

时空序列预测

13篇

pytorch学习笔记

2篇

异常检测

2篇

串讲总结

1篇

Tensorflow学习笔记

9篇

数据挖掘学习笔记

4篇

《AI paper》论文学习笔记

2篇

Deep Learning

30篇

Data mining

7篇

Machine Learning

1篇

android

14篇

qt

5篇

TensorFlow

13篇

caffe

9篇

ncnn

1篇

CV

4篇

opencv

3篇

STM32

1篇

feelings

2篇

plans

1篇

PyTorch

1篇

Time Series

4篇

目录

评论

被折叠的  条评论

为什么被折叠?

到【灌水乐园】发言

查看更多评论

添加红包

祝福语

请填写红包祝福语或标题

红包数量

红包个数最小为10个

红包总金额

红包金额最低5元

余额支付

当前余额3.43元

前往充值 >

需支付:10.00元

取消

确定

下一步

知道了

成就一亿技术人!

领取后你会自动成为博主和红包主的粉丝

规则

hope_wisdom 发出的红包

实付元

使用余额支付

点击重新获取

扫码支付

钱包余额

0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

TGN:Temporal Graph Networks for Deep Learning on Dynamic Graphs-CSDN博客

>

TGN:Temporal Graph Networks for Deep Learning on Dynamic Graphs-CSDN博客

TGN:Temporal Graph Networks for Deep Learning on Dynamic Graphs

最新推荐文章于 2023-04-14 15:25:30 发布

卉卉卉大爷

最新推荐文章于 2023-04-14 15:25:30 发布

阅读量4.9k

收藏

30

点赞数

6

分类专栏:

图网络

文章标签:

深度学习

原文链接:https://towardsdatascience.com/temporal-graph-networks-ab8f327f2efe

版权

图网络

专栏收录该内容

2 篇文章

0 订阅

订阅专栏

2、Background

2.1 Deep learning on static graphs

一个静态图

G

=

(

V

,

E

)

\mathcal{G}=(\mathcal{V},\mathcal{E})

G=(V,E) 包含结点

V

=

1

,

.

.

.

,

.

n

\mathcal{V}={1,...,.n}

V=1,...,.n 和边

E

V

×

V

\mathcal{E}\subseteq\mathcal{V}\times\mathcal{V}

E⊆V×V,军备赋予了 features,对于所有的

i

,

j

=

1

,

.

.

.

,

n

i,j=1,...,n

i,j=1,...,n 用

v

i

v_i

vi​ 和

e

i

j

e_{ij}

eij​ 来表示。典型的图神经网络(GNN)通过学习局部聚合规则来创建节点的嵌入

z

i

z_i

zi​ :

z

i

=

j

n

i

h

(

m

i

j

,

v

i

)

z_i=\sum_{j\in n_i} h(m_{ij},v_i)

zi​=j∈ni​∑​h(mij​,vi​)

m

i

j

=

m

s

g

(

v

i

,

v

j

,

e

i

j

)

m_{ij} =msg(v_i,v_j,e_{ij})

mij​=msg(vi​,vj​,eij​) 可以被理解为

i

i

i 的邻居

j

j

j 对它的信息传递。这里,

n

i

=

j

:

(

i

,

j

)

E

n_i={{j:(i,j)\in \mathcal{E}}}

ni​={j:(i,j)∈E} 表示节点

i

i

i 的邻域,

m

s

g

msg

msg 和

h

h

h 为可学习函数。

2.2 Dynamic Graphs

动态图有两类。离散时间动态图 Discrete-time dynamic graphs (DTDG) 是 每隔一段时间采集的 静态图 的序列。连续时间动态图 Continuos-time dynamic graphs (CTDG) 更为常用,可以被表示为按照时间排列的事件(timed lists of events),可以包括边的添加或删除、节点的添加或删除、节点或边的feature的变化。在本文中我们不考虑删除事件。

我们的动态图(temporal (multi-)graph)被建模为 带时间戳的事件(time-stamped events)的序列

G

=

x

(

t

1

)

,

x

(

t

2

)

,

.

.

.

\mathcal{G}={x(t_1),x(t_2),...}

G=x(t1​),x(t2​),... ,表示 节点 或 节点间交互作用 的添加或是更改 在时间

0

<

=

t

1

<

=

t

2

<

=

.

.

.

0<=t_1<=t_2<=...

0<=t1​<=t2​<=...。一个事件

x

(

t

)

x(t)

x(t) 可以被表示为两种类型:

A node-wise event 用

v

i

(

t

)

v_i(t)

vi​(t) 表示,其中

i

i

i 表示 节点的下标,

v

v

v 表示v是与事件相关联的向量特性(vector attribute)。节点第一次出现之后,就假设节点一直存在,而且下标保持不变,在后续中一直使用。An interaction event :节点

i

i

i 和 节点

j

j

j 之间的交互作用用 temporal edge 表示,

e

i

j

e_{ij}

eij​ (在一对节点之间可能有不止一条边,所以从技术上讲,这是一个多重图multigraph,含有平行边的图)。 我们用

V

(

T

)

=

{

i

:

v

i

(

t

)

(

G

)

,

t

T

}

\mathcal{V}(T)=\lbrace i: \exists v_i(t) \in \mathcal(G), t \in T \rbrace

V(T)={i:∃vi​(t)∈(G),t∈T} 、

E

(

T

)

=

{

(

i

,

j

)

:

e

i

j

(

t

)

(

G

)

,

t

T

}

\mathcal{E}(T)=\lbrace (i,j): \exists e_{ij}(t) \in \mathcal(G), t \in T \rbrace

E(T)={(i,j):∃eij​(t)∈(G),t∈T} 表示 节点集 和 边集,

n

i

(

T

)

=

{

j

:

(

i

,

j

)

(

E

)

(

T

)

}

n_i(T)=\lbrace j:(i,j) \in \mathcal(E)(T)\rbrace

ni​(T)={j:(i,j)∈(E)(T)} 表示节点

i

i

i 的邻居,在时间间隔T内。

n

i

k

(

T

)

n_i^k(T)

nik​(T) 表示k跳邻居。时序图(temporal graph)

G

\mathcal{G}

G 在时间 t 的 snapshot 是有

n

(

t

)

n(t)

n(t) 个节点的 (multi-)graph

G

(

t

)

=

(

V

[

0

,

t

]

,

E

[

0

,

t

]

)

\mathcal{G}(t)=(\mathcal{V}[0,t], \mathcal{E}[0,t])

G(t)=(V[0,t],E[0,t]) 。

3、Temporal Graph Networks

动态图的神经网络模型可以被视为一个 encoder-decoder 架构,encoder是将动态图映射为节点embedding的function,decoder 接受一个或多个节点embedding作为输入,并基于这些进行预测,例如节点分类、边分类。

本文的主要贡献在于 a novel Temporal Graph Network (TGN),encoder采用了表示为带有time-stamped events and producing 的连续时间动态图,对每一个时间

t

t

t,图中节点的embedding为

Z

(

t

)

=

(

z

1

(

t

)

,

.

.

.

,

z

n

(

t

)

(

t

)

)

Z(t)=(z_1(t),...,z_{n(t)}(t))

Z(t)=(z1​(t),...,zn(t)​(t)) 。

3.1 Core modules(核心模块)

该模型可应用于以事件流表示的动态图的各种学习问题。简而言之,TGN Decoder 根据结点之间的连接创建节点的Embedding 表示,并在每个事件上更新它们。为了实现这一点,TGN有以下主要组件:

Memory

Memory 存储所有节点的状态,作为节点过去时刻相互连接的压缩表示。它类似于RNN的隐状态;然而,在这里每一个节点

i

i

i 有一个单独的状态向量(a separate state vector)

s

i

(

t

)

s_i(t)

si​(t) 。当一个新的节点出现,我们增加一倍被初始化为零向量的对应的状态。 然而,这里有一个单独的状态向量年代ᵢ为每个节点(t)。当一个新节点出现时,我们添加一个相应的状态初始化向量的零。此外,由于每个节点的 memory 只是一个状态向量(而不是一个参数),所以在训练阶段,当模型出现新的节点交互,可以更新对应节点的状态。

Message Function

Message Function 是更新 memory 的主要机制。给一个节点

i

i

i 和 节点

j

j

j 在时刻

t

t

t 的一个相互作用,Message Function 计算两个 message (一个是针对

i

i

i,一个是针对

j

j

j ),用于更新 memory。这类似于在消息传递图神经网络(message-passing graph neural networks)中计算的 messages 。messages 是计算 节点

i

i

i、节点

j

j

j 的 memory 的函数,输入为 时间

t

t

t 之前的相互作用、相互作用时间

t

t

t、边的特征:

m

s

g

msg

msg 是可学习的message function 例如 MLP。在本文中,我们选用的 message function

m

s

g

msg

msg 是 identity (id),只是简单地把输入串联起来。

Message Aggregator

为了提高效率,采用批处理的手段,但是会导致在同一个batch中,多个事件包含相同的节点

i

i

i。由于每一个事件都会产生一个 message,所以我们需要聚合 时间

t

1

,

.

.

.

,

t

b

t

t_1,...,t_b \leq t

t1​,...,tb​≤t 的 message

m

i

(

t

1

)

,

.

.

.

,

m

i

(

t

b

)

m_i(t_1),...,m_i(t_b)

mi​(t1​),...,mi​(tb​)。 其中,

a

g

g

agg

agg 是一个聚合函数,可以用多种方式实现,例如 RNN、注意力机制等。本文中为了简单起见,我们采用了两种实现方式:1) most recent message ,只保留给定节点的最新的消息;2) mean message ,一个给定节点的所有 message 的平均值。

Memory Updater

Memory Updater 用于根据新的 message 更新 memory 。该模块通常用 RNN、LSTM、GRU 实现。 考虑到节点的 memory 是一个随时间更新的向量,最直接的方法是直接使用它作为 节点Embedding。然而,在实践中,这不是一个好的方法 由于 the staleness problem :如果只有在节点相互作用的时候才更新 memory,那么节点长时间不活动会导致 memory 会 staleness 。 举个例子,假设一个用户离开Twitter好几个月。当用户返回时,他们的兴趣可能已经转移,所以他们过去的活动记忆不再相关。因此,我们需要一种更好的方法来计算嵌入。

Embedding

一种解决方案是参考 节点的邻居。为了解决 staleness problem,Embedding 模块通过对节点的 spatiotemporal neighbours 进行 graph aggregation 来计算该节点的 temporal embedding。即使一个节点已经不活动一段时间,它的一些邻居可能已经活动,并且通过聚集他们的 memory,TGN可以计算一个节点的up-to-date embedding 。在我们的例子中,即使用户离开Twitter,他们的朋友仍然活跃,所以当用户返回时,朋友最近的活动可能 比 用户自己的历史活动更相关。 图形嵌入模块通过在目标节点的 temporal neighbourhood 上执行聚合来计算目标节点的嵌入。在上面的图中,当计算节点 1 在时间

t

t

t(

t

t

t比

t

2

,

t

3

,

t

4

t_2,t_3,t_4

t2​,t3​,t4​大,比

t

5

t_5

t5​小)的Embedding的时候,temporal neighbourhood 只包含时间

t

t

t 之前出现的边。因此,节点5的边不参与计算,因为它是在将来发生的。相反,嵌入模块从相邻节点2、3和4的 features(v) 和 memory(s) 以及边的特征进行聚合,以计算节点1的表示。实验中表现最好的图形嵌入模块是 graph attention,它可以根据邻居的 memory 、feature 和 time of interaction 来判断哪些邻居是最重要的。 简言之: 如果直接用memory来表示节点的信息,如果这个节点长时间不活动,会出现 memory 过时的问题,所以聚合一下邻居的信息,来生成这个节点的 embedding。

Embedding 模块用来生成 节点

i

i

i 在时间

t

t

t 的 Temporal Embedding

z

i

(

t

)

z_i(t)

zi​(t) 。 其中,

h

h

h 是一个可学习函数,可以用多种方式实现:

Identity (id):直接用memory作为节点embedding。 Time projection (time): 其中

w

w

w 是可学习参数,

Δ

t

\Delta t

Δt 是与上一次 interaction 的间隔时间,

\circ

∘ 表示向量对应位置元素相乘。 Temporal Graph Attention (attn):A series of

L

L

L graph attention layers 通过聚合

L

L

L跳 temporal neighborhood 计算

i

i

i 的 embedding。 第

l

l

l 层输入是

i

i

i 在当前时间

t

t

t 的表示

h

i

(

l

1

)

(

t

)

h_i^{(l-1)}(t)

hi(l−1)​(t),

i

i

i 的邻居的表示

h

1

(

l

1

)

(

t

)

,

.

.

.

,

h

N

(

l

1

)

(

t

)

h_1^{(l-1)}(t),...,h_N^{(l-1)}(t)

h1(l−1)​(t),...,hN(l−1)​(t) 、时间戳

t

1

,

.

.

.

,

t

N

t_1,...,t_N

t1​,...,tN​ 、特征

e

i

1

(

t

1

)

,

.

.

.

,

e

i

N

(

t

N

)

e_{i1}(t_1),...,e_{iN}(t_N)

ei1​(t1​),...,eiN​(tN​): 在这里,

ϕ

(

)

\phi (\cdot)

ϕ(⋅) 表示 a generic time encoding, || 是连接运算符,

z

i

(

t

)

=

e

m

b

(

i

,

t

)

=

h

i

(

L

)

(

t

)

z_i(t)=emb(i,t)=h_i^{(L)}(t)

zi​(t)=emb(i,t)=hi(L)​(t) 。每一层相当于进行了 multi-head-attention 其中 query

q

(

l

)

(

t

)

q^{(l)}(t)

q(l)(t) 是一个 reference node(即目标节点或它的L个1跳邻居中的一个),keys

K

(

l

)

(

t

)

K^{(l)}(t)

K(l)(t) ,values

V

(

l

)

(

t

)

V^{(l)}(t)

V(l)(t) 是他的邻居。最后,利用 MLP 将 the reference node representation 与 the aggregated information 组合在一起。与这一层的原始公式(在TGAT 中首次提出)不同,这一层中没有使用节点的时间特征,在我们的例子中,每个节点的输入表示为

h

j

(

0

)

(

t

)

=

s

j

(

t

)

+

v

j

(

t

)

h^{(0)}_j(t)=s_j(t)+v_j(t)

hj(0)​(t)=sj​(t)+vj​(t),因此,它允许模型同时利用当前 memory

s

j

(

t

)

s_j(t)

sj​(t) 和 the temporal node features

v

j

(

t

)

v_j(t)

vj​(t)。 Temporal Graph Sum (sum): 在图上进行更简单和更快的聚合: 在这里,

ϕ

(

)

\phi (\cdot)

ϕ(⋅) 是 a time encoding,并且:

TGN对于一个batch的训练数据的整体计算过程如下图所示: TGN对一批训练数据执行的计算。一方面,Embedding 由 embedding module 使用时序图和节点的 memory (1)生成。然后使用 Embedding 来预测批处理交互并计算损失(2)(3)。另一方面,这些 same interactions 被用于更新memory(4)(5)。

memory-related modules (Message function, Message aggregator, and Memory updater) 的训练方式

考虑到它们似乎不直接影响loss,因此不计算梯度。为了让这些模块能够影响loss,我们需要在预测 batch interactions 之前更新memory。然而这将导致 leakage,因为memory中已经包含了我们想要预测的信息。针对这个问题的解决方案是 使用前面的batches的信息来更新memory,然后预测interactions 。下图显示了TGN的操作流程,这是训练 the memory-related modules 所必需的: Flow of operations of TGN necessary to train the memory-related modules. 引入了一个新的模块,the raw message store,用来存储计算 message的必须信息,我们称之为 原始信息(raw messages) ,用于过去已被模型处理过的 interactions 。这允许模型将 interaction 导致的 memory 更新延迟到以后的 batch。

首先,使用 在先前的batches中存储的raw message 计算 message 更新 memory。然后,使用刚刚更新的 memory 计算 embedding (灰色链接)(3)。通过这样做,与 memory 相关的模块的计算直接影响 loss (4,5),并且得到一个梯度。最后,当前batch 的 interactions 存储在raw message中,以供后序的batch使用(6)。

在各种 dynamic graphs 的大量实验验证中,TGN在未来边缘预测(future edge prediction)和动态节点分类(dynamic node classification)的任务上,无论在精度还是速度上都明显优于竞争的方法(competing methods)。其中一个动态图是Wikipedia,其中用户和页面是节点,interaction 表示用户编辑页面。编辑文本的编码被用作交互特性。本例中的任务是预测用户在给定时间将编辑哪个页面。我们比较了不同的 TGN变形 与基线方法: 这些消融研究表明了TGN不同模块的重要性。

memory 很重要:它的缺失会导致性能的大幅下降embedding module 很重要(不是直接输出memory状态)。Graph attention-based embedding 表现更好使用memory后,仅需要一个graph attention layer即可(使用一个大大减少了计算时间),由于1跳邻居的 memory 给了模型间接访问2跳邻居的信息。

优惠劵

卉卉卉大爷

关注

关注

6

点赞

30

收藏

觉得还不错?

一键收藏

知道了

1

评论

TGN:Temporal Graph Networks for Deep Learning on Dynamic Graphs

2、Background2.1 Deep learning on static graphs一个静态图 G=(V,E)\mathcal{G}=(\mathcal{V},\mathcal{E})G=(V,E) 包含结点 V=1,...,.n\mathcal{V}={1,...,.n}V=1,...,.n 和边 E⊆V×V\mathcal{E}\subseteq\mathcal{V}\times\mathcal{V}E⊆V×V,军备赋予了 features,对于所有的 i,j=1,...,ni,j=1,..

复制链接

扫一扫

专栏目录

TGN-个人存储-Temporal Graph(请勿下载).zip

10-23

注:请勿下载。

其中,ml_wikipedia 应该是为原版CSV文件,找到较为不易,数据集较大。且若在本机训练,耗费时间较长(几十个小时起步)。

若 ml_wikipedia文件不大,但是其中的数据条数够,那就是压缩过的数据,数据不完全,但也能训练,不推荐使用少的,但是练习时也是可以试试的!

Deep Spatial-Temporal 3D Convolutional Neural Networks for Traffic Data Forecasting

02-08

Deep Spatial-Temporal 3D Convolutional Neural Networks for Traffic Data Forecasting

1 条评论

您还未登录,请先

登录

后发表或查看评论

Spatio-Temporal-Graph-Convolutional-Networks-A-Deep-Learning-Framework-for-Traffic-Forecasting:推介会

05-02

时空图卷积网络对交通预测的深入学习框架

参考

抽象的

时空图卷积网络

解决交通领域中的时间序列预测问题

完整的卷积结构。

介绍

线性回归在短期预测而非长期预测上表现良好

这是一种数据驱动且使用时空信息的方法。

充分利用空间信息,而不是将其视为离散单元

$$ \ hat v_ {t + 1},...,\ hat v_ {t + H} = argmax log_ {10} P(v_ {t + 1},...,v_ {t + H} | v_ {tM},...,v_ {t})$$

其中$$ v_t \ in R ^ n $$,n是时间步长t的n个路段的观测向量

图上的卷积

标准化拉普拉斯算子

随机游走归一化拉普拉斯算子

类似于多元高斯分布

对称归一化的拉普拉斯算子L:

第一代GNC

第二代GNC

如果k == n,则接收域为n跳

第三代GNC

其中$$ c_1 $$,

802.11 TGn Channel Models

12-15

802.11 TGn Channel Models

Learning Sequence Encoders for Temporal Knowledge Graph Completion.pdf

03-29

Learning from positive and unlabeled data or PU learning is the

setting where a learner only has access to positive examples and unlabeled

data. The assumption is that the unlabeled data can contain both positive and

negative examples. This setting has attracted increasing interest within the

machine learning literature as this type of data naturally arises in applications

such as medical diagnosis and knowledge base completion. This article provides

a survey of the current state of the art in PU learning. It proposes seven key

research questions that commonly arise in this field and provides a broad

overview of how the field has tried to address them

【论文下饭】Temporal Graph Network for Deep Learning on Dynamic Graphs

LittleSeedling的博客

04-27

3565

文章目录1 介绍2 背景3 Temporal Graph Network3.1 核心模块MemoryMessage Function(msg)Message Aggregator(agg)Memory Updater(mem)Embedding(emb)3.2 训练4 相关工作5 实验5.1 性能表现(实验结果)5.2 模块选择MemoryEmbedding MoudleMessage AggregatorNumber of layers6 结论

综述

Representation Learning for

文献阅读(75)ICML Workshop2020-Temporal Graph Networks for Deep Learning on Dynamic Graphs

CSDNTianJi的博客

11-14

534

本文是对《Temporal Graph Networks for Deep Learning on Dynamic Graphs》一文的总结,如有侵权即刻删除。

TGN:Temporal Graph Networks论文解读

qq_40022890的博客

02-18

4915

TGN:Temporal Graph Networks论文解读

白马非马异度侵入今天

图神经网络(GNNs)的研究已经成为今年机器学习领域的热门话题之一。GNNs最近在生物、化学、社会科学、物理等领域取得了一系列成功。但GNN模型目前以静态图上偏多,然而现实世界许多关系是动态的,比如社交网络、金融交易和推荐系统,动态的变化包含了许多重要信息,只考虑静态图,很难捕捉到其中信息。

本篇文章发表在ICLR2020上,对动态图的节点进行连接预测。TGN中,作者除利用传统的图神经网络捕捉非...

Temporal Graph Networks for Deep Learning on Dynamic Graphs

Milkha的博客

03-01

937

文章目录1 前言2 问题定义3 TGN思路3.1 Memory3.2 Message Function3.3 Message Aggregator3.5 Memory Updater3.5 Embeddings4 方法的优势与局限性

论文地址:https://arxiv.org/pdf/2006.10637.pdf

来源:ICML 2020 Workshop

slides:tgn

源码地址:tgn

关键词:graph representation, temporal graph

1 前言

该论文主要解决

【动态图表示综述】Representation Learning for Dynamic Graphs: A Survey

图挖掘领域,新晋砖家 ☞ 未来可期,欢迎和静静一起学习交流吖

05-21

2918

综述|73页近百篇参考文献JMLR20动态图上的表示学习

论文Representation Learning for Dynamic Graphs: A Survey paper

转载AIGraph深度学习与图网络

摘要

图自然出现在许多现实世界的应用程序中,包括社交网络,推荐系统,本体,生物学和计算金融。传统上,用于图的机器学习模型主要是为静态图设计的。但是,许多应用程序涉及不断发展的图。由于节点,属性和边随时间变化,这为学习和推理带来了重要挑战。在此调查中,作者回顾了动态图(包括动态...

Attention Based Spatial-Temporal Graph Convolutional Networks for Traffic Flow Forecasting

02-08

Attention Based Spatial-Temporal Graph Convolutional Networks for Traffic Flow Forecasting

《Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition》论文阅读之ST-GCN

Gavinmiaoc的博客

05-27

6421

近日,香港中文大学提出一种时空图卷积网络,并利用它们进行人类行为识别。这种算法基于人类关节位置的时间序列表示而对动态骨骼建模,并将图卷积扩展为时空图卷积网络而捕捉这种时空的变化关系。

近年来,人类行为识别已经成为一个活跃的研究领域,它在视频理解中起着重要的作用。一般而言,人类行为识别有着多种模态(Simonyan and Zisserman 2014; Tran et al. 2015; W...

[TW 2023] 将三图神经网络与多个隐式反馈相结合,用于社交推荐

最新发布

sinat_38007523的博客

04-14

132

图神经网络(GNN)已被明确证明在推荐任务中是强大的,因为它们可以捕获高阶用户-项目交互并将其与丰富的属性集成。但是,它们仍然受到冷启动问题和数据稀疏性的限制。利用社会关系辅助推荐是一种有效的做法,但只能适度缓解这些问题。此外,丰富的属性通常不可用,这会阻止 GNN 完全有效。因此,我们建议通过挖掘多个隐式反馈并构建三重GCN组件来丰富模型。我们注意到,用户可能不仅受到他们信任的朋友的影响,还受到已经存在的评级的影响。隐性影响在项目以前的和潜在的评分者之间传播,并且确实会对未来的评级产生影响。

TGAT:INDUCTIVE REPRESENTATION LEARNING ON TEMPORAL GRAPHS 论文笔记

年年年的博客

05-08

6033

INDUCTIVE REPRESENTATION LEARNING ON TEMPORAL GRAPHS摘要简介TGAT框架Time Encoding函数时序图注意力层(TGAT layer)如果边上有不同的特征实验实验设置Loss Function

摘要

在时序图上进行推断式表示学习十分重要。作者提出节点embedding应该同时包括静态节点特征以及变化的拓扑特征。作者提出的TGAT模型以自注意力机制为基础并根据谐波分析的经典Bochner定理开发了一种新颖的功能时间编码技术。通过堆叠TGAT层可以推测

从几篇综述区分Dynamic Graph和Spatial-temporal Graph

羊城迷鹿的博客

02-28

4524

Foundations and modelling of dynamic networks using Dynamic Graph Neural Networks: A survey

本文首先给出了动态网络的定义和分类,然后分别从编码和解码的角度介绍了图神经网络模型如何用于动态图的嵌入表示以及完成链路预测任务

动态网络

定义

动态网络是随时间变化的复杂网络。链接和节点可能出现和消失。

一个 动态网络可以表示为一个图G=(V,E)G=(V, E)G=(V,E),其中V={(v,ts,te)}V=\{(v

论文阅读 TEMPORAL GRAPH NETWORKS FOR DEEP LEARNING ON DYNAMIC GRAPHS

「 虚幻私塾」

07-18

370

提出了时间图网络(TGNs),一个通用的,有效的框架,在动态图上的深度学习表示为时序事件序列。由于记忆模块和基于图的操作的新颖组合,TGN在计算效率更高的同时,显著优于以前的方法。

TGN: TEMPORAL GRAPH NETWORKS FOR DEEP LEARNING ON DYNAMIC GRAPHS论文笔记

年年年的博客

05-08

1526

TEMPORAL GRAPH NETWORKS FOR DEEP LEARNING ON DYNAMIC GRAPHS摘要贡献背景静态图表示学习动态图表示学习

摘要

本文提出了时间图网络(TGNs),这是一种通用的,有效的框架,可用于对以时间事件序列表示的动态图进行深度学习。

贡献

提出了时间图网络(TGN)的通用归纳框架,该框架在以事件序列表示的连续时间动态图上运行,并表明许多以前的方法都是TGN的特定实例。

新颖的训练策略,允许模型从数据的顺序中学习,同时保持高效的并行处理。

作者对框架的不同组成部

图网络模型原理详解(Graph Network)

热门推荐

ChihkAnchor的博客

01-22

4万+

《Relational inductive biases, deep learning, and graph networks》

这篇论文包含了一部分新研究、一部分回顾和部分统一结论,这篇文章涉及到的很多知识面,涉及到联结主义、行为主义、符号主义,其本身的模型并不难,但是要理解其提出来的背景及相关知识联系,和其研究的深层含义就需要慢慢品读其中的参考文献了。

这篇论文是DeepMind联合谷歌大...

Dynamic Graph CNN for Learning on Point Clouds 解析

legend_hua的博客

01-26

1万+

该文章是最新出的一篇针对Point Clouds数据分类、分割的网路,它是受点云数据处理的鼻祖论文PointNet、PointNet++的启发所进行的修改,PointNet只是独立处理每个点,来实现permutation invariance,但忽视了点之间的局部特征。所以这篇文章主要提出了一个EdgeConv层来实现获取局部特征,解决PointNet所没有的处理局部特征的问题。

一、网络结构

tdn: temporal difference networks for efficient action recognition

03-16

TDN是一种用于高效行为识别的时间差网络。它结合了时间差学习和卷积神经网络,能够在不需要额外的光流或时间序列数据的情况下,对视频进行高效的行为识别。TDN的设计使得它能够在处理大规模视频数据时具有较高的效率...

“相关推荐”对你有帮助么?

非常没帮助

没帮助

一般

有帮助

非常有帮助

提交

卉卉卉大爷

CSDN认证博客专家

CSDN认证企业博客

码龄7年

暂无认证

29

原创

9万+

周排名

37万+

总排名

7万+

访问

等级

560

积分

32

粉丝

90

获赞

22

评论

272

收藏

私信

关注

热门文章

Python运行错误:RuntimeError: CUDA error: invalid device ordinal

32102

汤普森采样(Thompson sampling)

10779

TGN:Temporal Graph Networks for Deep Learning on Dynamic Graphs

4963

神经了的ODE:Neural Ordinary Differential Equations

4140

ipad pro + zotero + 坚果云 + PDF Expert 搭建多平台文献管理(自用备忘)

3244

分类专栏

Offline RL

4篇

强化学习

18篇

计算机编程指南

5篇

因果挖掘

5篇

RL给药

5篇

主动学习

1篇

Meta-RL

1篇

HRL

2篇

Meta-imitation Learning

1篇

图网络

2篇

深度学习

6篇

最新评论

【论文分享】如何完成 Offline RL 的在线部署?工业界应用必不可少!!

BI average:

呜呜,写得好清楚

Basal Glucose Control in Type 1 Diabetes using Deep Reinforcement Learning: An In Silico Validation

YY732311214:

是否有大神使用了这款模拟器,可否交流

An Actor–Critic based controller for glucose regulation in type 1 diabetes

qq_58313926:

你好博主可以分享一下代码谢谢

神经了的ODE:Neural Ordinary Differential Equations

音程:

话说,后续呢?给爷端上来。

Python运行错误:RuntimeError: CUDA error: invalid device ordinal

weixin_44675603:

太牛了,虽然不知道为什么,不过真的可以运行了

您愿意向朋友推荐“博客详情页”吗?

强烈不推荐

不推荐

一般般

推荐

强烈推荐

提交

最新文章

【论文分享】如何完成 Offline RL 的在线部署?工业界应用必不可少!!

ipad pro + zotero + 坚果云 + PDF Expert 搭建多平台文献管理(自用备忘)

(Nature)The rational use of causal inference to guide reinforcement learning strengthens with age

2022年1篇

2021年20篇

2020年13篇

目录

目录

分类专栏

Offline RL

4篇

强化学习

18篇

计算机编程指南

5篇

因果挖掘

5篇

RL给药

5篇

主动学习

1篇

Meta-RL

1篇

HRL

2篇

Meta-imitation Learning

1篇

图网络

2篇

深度学习

6篇

目录

评论 1

被折叠的  条评论

为什么被折叠?

到【灌水乐园】发言

查看更多评论

添加红包

祝福语

请填写红包祝福语或标题

红包数量

红包个数最小为10个

红包总金额

红包金额最低5元

余额支付

当前余额3.43元

前往充值 >

需支付:10.00元

取消

确定

下一步

知道了

成就一亿技术人!

领取后你会自动成为博主和红包主的粉丝

规则

hope_wisdom 发出的红包

实付元

使用余额支付

点击重新获取

扫码支付

钱包余额

0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值