vfp简单算法,vfp简单吗

发表于 资讯中心

这个文章详细为你讲解了vfp简单算法的题和一些关于vfp简单吗相关的话题,希望对各位有帮助!

vfp简单算法

编者案

计算机网络体系行业顶级开会NSDI 2017于三月末在美国波士顿召开呢。开会结尾以后,咋们约请了微软亚洲研究院的结合培育博士生肖文聪与咋们分享了她的这次参会的心得体会呢。您还应该看过她此前分享的SoCC的参会体验呀。

开会简介

NSDI的全称是Networked Systems Design and Implementation,是USENIX旗下的旗舰开会之一,也是计算机网络体系行业久负盛名的顶级开会拉。与互联网行业的另一顶会Sigcomm比较,NSDI越发侧重于网络系统的策画与完成,家喻户晓的大数据系统Spark就揭晓在2012年的NSDI大会上了。

NSDI希奇看重短文品质,开会选用严酷的双盲评审,每篇短文都要通过两轮共计六到八个审稿人审视,以后还须要通过程-序委员会的探讨挑选了。最终,这年的NSDI在投稿的两百多篇文章中收录了学术论文40篇,录取率为18%拉。

本届NSDI在美国波士顿举办,大会一共连续三天,分为13个session,从数据中心到无线网络,从平安秘密到非常检测,从存储系统到分布式计算,既有典范的互联网疑负载平衡(Load balance)和安排(Scheduling),也有视频检测体系和分布式机械进修体系等新场景下的新疑,能够说是涵盖了网络系统钻研的各个方面了。每一个session仅有三四篇短文,每篇短文都须要在大会上作近半小时的口头报告并接收发拉。除Oral关节外,次日的夜晚还设有一位独自的Poster session,一共考取了量少质优的22篇poster,展现了来源年青PhD學生的许多新思路和新设法呀。

搭赸,讲演,被搭赸

早在我首次去会议的时刻,我的导师.微软亚洲研究院副院长周礼栋博士和我在研究院的指导老师(mentor)伍鸣就告知我,会议最主要的是什麽交换!但是许多事变都是知易行难呢。我不由回想起两年前我首次参加学术会议的时刻的难堪,那时因为对我英语口语和口音的不相信自己,即使是面临迎接晚宴上坐在身边的研究员,我也不晓得该怎么样开-口了。我如今还记得,在我完结那年的暑期练习并从美国总部微软雷德蒙研究院辞职的那天,我的指导老师还分享给我很多经历,这个里面之一便是对于言语交换的疑啦。由于英语并不-是咋们的母语,咋们在与他人的交换中存在着领会上的误差是很经常出现的,不停练习我晋升言语才能固然主要,但更主要的是要永久维持耐性,去谛听.领会.咨询,为到达相同的领会(context)去不停测试交流和表明我拉。细心回忆,算上大四那年,我曾经在微软亚洲研究院的体系组练习快4年了,全部每一个研究员都在科研上赋予过我帮-助,而组里放松而踏实的学术气氛,保持科研与成品相结合的学习和验证办法更是深深影响了我呢。我何其幸运能获得这么多人不知疲倦的教育,点点滴滴只能牢记于心,不停践行了。这一次的大会上,我在茶歇时期成-功搭赸了好几位优异学者并与Poster 关节凌驾一半的人都举行了交换,比较于上一次,也算是小有提高呀。

体系组参会职员合照

实际上会议闲聊是很高效的交换办法,而吃饭时间更是极好的交流的机遇呢。假如碰到一些年长的研究员,你们常常会分享一些高层次的关于钻研方位和行业进展的思索,以至是一些人生经历了。假如碰到跟我相干行业的论文的作者,那样的就很简单能聊到论文新办法下的一些细节疑,本来透过作者读论文常常是最快的办法!尽人皆知,许多顶级学术会议触及行业的范畴很广,就拿NSDI来讲,网络系统行业的钻研跨度太大,而近几年交织行业的新事情也对比多,闲聊时常常会碰到我应该还没交往到的钻研面,刚好这个时间与同行业的人的交换常常能脑洞大开,互相引发新设法拉。这一次的NSDI正好是在学术重镇波士顿举办,波士顿四周会聚了许多有名的高校,包罗有名的麻省理工学院(MIT)和哈佛大学拉。这带莱的一位利益便是参会的人不仅有网络系统相干的研究员和论文作者,更有很多来源这一些高校的PhD们,你们使参会职员越发多元化拉。俗语说的好,前车之鉴可以攻玉,许多前瞻性的短文和新奇的办法便是在这个样子的跨界交换中提炼的拉。

这是我第二次参与学术会议,而不同于以往,这一次我须要在大会上就本人的事情做近半小时的口头报告拉。这里要非常感谢我在微软亚洲研究院体系组的共事们,从PPT到讲演内容你们都帮我举行了详细的修正,还放置了三次的排演并教会我许多讲演上的方法了。

只管是早有筹备,但我在前去波士顿的飞机上却仍然愈发的慌张和焦灼呢。但是就在当我刚到会场举行登记的时刻,我碰到了上一年暑期在雷德蒙研究院练习时熟悉的研究员Amar,她的一句“温控 ”(在英语使用者由此可见我的姓名Wencong是应当这么发音) 和开朗的笑声把我的思路从阴冷的波士顿带回了美丽的西雅图的炎天,到哪个我们都十分勤奋十分有爱的99号楼,统统的慌张和压制一刹那获得了缓和呢。当我站上演讲台以后,与其说有那样的点慌张更不如说是1种开心,看着底下目光灼灼的“同窗们”,我以为我更像一位流传学的导师,责任重大呢。

在完结了讲演以后的茶歇,一个不熟悉的研究员忽然跑过来,我看了一下名牌才发觉,竟是赫赫有名的PowerGraph和GraphX的作者Joseph!她赞美了咋们的事情,并分享了她的一些相干的思索,包罗体系策画层面和机械进修等拉。我十分高兴我的事情获得了一定,经过我的一些细小的事情,能让我们在分布式系统的策画完成上看到一位新的办法,有一些新的启迪,我很骄傲也很知足啦。

中心透视

底下我将从获论文.微软Azure的重磅事情.数据中心钻研.和机械进修相干体系4个方方面面推荐一些NSDI上的论文呢。


获论文

本届NSDI共公布了2个项,Community Award(社区贡献)和Best Paper Award(最好论文)呀。这个里面Community Award被Dropbox斩获,而来源Korea Advanced Institute of Science and Technology (KAIST) 的mOS则在很多西欧名校的顶级网络系统事情中锋芒毕露,摘得了惟一的Best Paper Award!

Dropbox在论文The Design, Implementation, and Deployment of a System to Transparently Compress Hundreds of Petabytes of Image Files for a File-Storage Service中推荐了你们的图象数据压缩体系Lapton【1】,曾经布置在Dropbox这个样子一位世界范畴的云存储系统中,能够无损压缩JPEG图像文件到本来长短的77%啦。截止到2017年1月,曾经紧缩高达数百个PB的数据,节约了46PB的存储空间呢。这一个体系曾经在Github举行了开源呀。

KAIST的mOS则重要处理带有状况的互联网数据流层面的MiddleBox的编程可重用性疑呢。MiddleBox是指互联网中布置的带有除包转发之外功效的体系,比如说防火墙便是一位罕见的MiddleBox运用,用于过滤未经许可的网络流量了。电信体系中关于蜂窝数据流量的盘算和及时监控也是此外一位经典类型的MiddleBox使用拉。完成MiddleBox使用平常须要关于每一个联接的数据包和状况举行监控和处置,从而须要本人完成许多响应的包转发等功效,KAIST的研究员提出了一套高层次编程接口,使得用户只须要专一于完成MiddleBox的使用,躲藏了底层数据流处置的思维,防止了繁杂而易错的数据流治理部-分的重复性编程呢。而在底层,mOS经过一位高效而灵巧的事情体系,支撑百万量级并发流事情的处置了。mOS体系曾经在Github上开源,信赖会给MiddleBox的钻研和成品带莱许多的方便啦。


微软Azure的重磅事情

微软在这个样子一位网络系统行业的盛大的聚会中持续维持着本人的重量级职位,参加了一共40篇文章中的9篇文章的事情,为工业界之最,体现抢眼了。而微软的研究员也在本届NSDI的多个session中负责XXX席了。在近几年的网络系统钻研中,一方面微软研究院不单我揭晓钻研短文,而且还结合其余多个科研机构和其學生合-作揭晓了多篇钻研短文,另一方面微软的成品科室Azure也不停发表文章推荐了你们在现实出产环-境中的领先事情和经历啦。

Azure云办事是世界上最大的公有云办事之一,微软Azure的数据中心散播在世界各地,包罗高达百万量级的机械数量了。Azure把虚拟机卖给客户,须要给虚拟机的互联网供应防火墙.负载平衡等互联网功效,鉴于此,微软的Azure team在数据中心策画中大规模学习和验证SDN啦。

在本届NSDI的SDN and Network Design session,微软Azure数据中心负-责Host SDN team的Daniel Firestone推荐了你们长达8年的Host SDN的工作事情经历,表露了焦点体系——Virtual Filtering Platform (VFP) 【3】这个样子一位端系统上的可编程端虚构交换机的策画和完成细节了。VFP曾经布置在凌驾一百万台的Azure服务器上,稳固的支撑IaaS和PaaS的办事长达4年的时候呀。

第一阶段的VFP工作事情偏重在可编程性上,应区别用户能自力的编辑互联网计谋而不相互影响,而且支撑网络连接层面的状况化信息,还可以或许编辑灵巧的互联网计谋啦。

第二阶段的VFP工作事情则偏重关心在可维护性和功能2个层面,一方面供给热布置的功效,另一方面在基于FPGA 完成的SmartNIC的支撑下,经过Unified Flow Table策画和Hardware Offloads,使得VFP在维持最最先的灵巧软件界说的特征下,可以或许高效的支撑40Gbps和50Gbps的高速数据中心互联网啦。进一步的,SmartNIC对每一个服务器上运转着的虚拟机形象出一块虚构网卡,虚拟机经过SR-IOV技能便可直-接会见这块虚构网卡,使得虚拟机收发互联网数据包都不须要CPU盘算单位的参加,做成了CPU-bypass,既节约了CPU资本又下降了互联网耽误,而且更具经济性了。

在现在的Azure数据中心中,正以下图所示,每一一台服务器上都插上了一块FPGA,布置在本机网卡与外面网路之中,并经过PCIe联接到服务器上,FPGA 之中经过 LTL (Lightweight Transport Layer) 通讯,在微秒级别的时候内就能够抵达数据中心内任何的FPGA,真实做成了低耽误高带宽拉。这个样子1种布置的方法和软硬件协同策画的办法让FPGA从CPU中接管互联网功效并进一步加快了SDN,使得Host SDN得以在现在的高带宽数据中心互联网中布置呀。软件界说互联网以这个样子1种全新的方法与硬件相融会,兼具灵活性与高效性呀。


连续火爆的数据中心钻研

数据中心的钻研不停是NSDI上的中心,许多的事情都缭绕着数据中心的互联网来睁开了。

负载平衡(Load balance)和堵塞掌控(Congestion control)不断是数据中心互联网中的典范疑呀。在14年的Sigcomm上,思科揭晓了CONGA,在现在由此可见依然是state-of-art的congestion-aware load balance机制,在这年的NSDI上,你们又东山再起,在短文Let it flow【4】中提出了一位非常简单的负载平衡办法,持续了你们在CONGA内里的思绪与其在每一个数据包上作负载平衡,不妨思考在Flowlet的粒度上作呢。这里的Flowlet能够以为是以时候维度来切分的大量互联网包了。其简练的新负载平衡算法,一言以蔽之,即只想要随机的放置Flowlet到可用的互联网途径上便可平衡流量呀。这类看似随机的做法本来却能十分好的感知互联网拥挤,从而做成负载平衡了。这一做法的深层次缘故原由在于在堵塞难解决的途径上,Flowlet的长短会下降,而在通顺的途径上,Flowlet的长短会增加拉。这一机制(下图绿色) 比现有的许多流量平衡办法都有明显上风,而比起繁杂的机制CONGA(下图血色),也仅有10~20%的差异呢。

在另一位事情Flowtune【5】中,MIT的研究员则关心网络带宽分派的收敛速率疑啦。在数据中心互联网中,互联网管理者会预先基于区别的计谋界说优化的目的,把互联网的带宽快速的分给现在的数据流拉。这一个优化目的是事前界说好的,比如说能够是流之中公平性(Fairness)或许流完结时候(FCT)呀。传统的网络带宽分派这方面事情根本都是基于数据包(packet)这一个粒度,收敛到目的状况所须要的时候对应较长呢。这篇文章提出根据Flowlet的粒度来分派网络带宽,每一一位Flowlet都由一位中心化的控制器来决策发送速度呀。这内里主要的疑是怎么样迅速盘算出收敛到的最优速度,针对这一应战,你们提出了一位新的Newton-Exact-Diagonal办法来处理这一个疑,而且策画完成了一位在CPU上的多核并行可扩大的体系了。


机械进修和网络系统

跟着机械进修和人工智能体系的快速进展,和这一些技能在出产环-境中的大规模运用,许多网络系统的事情最先钻研怎么样针对性的优化这一些新使用呢。这届的NSDI大会上涌现出了很多跟机械进修相干的短文,研究员们并不只逗留于策画完成网络系统来为机械进修算法应用服务,另有更多的学者将机械进修办法使用到网络系统的现实疑当中,而这一个角度的事情相对来说是对比少的,非常使人开心啦。

Curator【6】是华盛顿大学和Nutanix合-作的体系,他是一位布置在后端的MapReduce-style的框架,用于处置存储系统中的后台任务,比如说磁盘碎片整顿,冷热数据搬运,备份数据等呢。论文推荐了你们多年来在分布式存储系统策画上的经历呢。值得一提的是,你们提出了用美化进修的办法来去肯定SSD和HDD中分-别存储的数据量,并称相较于经验性的阈值计谋办法会下降20%的耽误了。

独一无二,这类动静阈值的想法在这届NSDI大会中对于内容散发互联网(CDN)相干的事情AdaptSize【7】也获得了表现呢。CDN是1种节点散落在区别地理位置的大规模分布式系统了。举例来说,许多网络应用中须要的资本,比方视频和图片等这个样子的静態资本,就能够事先缓存在就近的节点上呀。当用户恳求数据时,CDN体系依照互联网状况的现实情形重定向用户恳求到就近节点上,以便利用户的会见啦。这个样子既减少焦点服务器的负载压力,又下降了获得资本的耽误,提升了用户体验呀。在CDN上,一样平常会分辨冷热数据,把用户常常会见的热数据 (Hot object) 放在内存这个样子的低会见耽误的存储模块中,而剩下的放在磁盘中,这个样子内存中的热数据就组成一位缓存呀。这里最主要的疑便是,什么样的数据须要放进内存,现有的做法不外呼是把所有都放进去随后依照会见频次把低频的踢出,或许是基于一位阈值把小数据放进去,究竟小数据越发划算呢。这篇文章选用一位马尔可夫模子,依照恳求的形式 (Request pattern) 主动调治响应阈值决策缓存的文件大小,进而获取更好的缓存命中率拉。这一个论文的结局十分的令人振奋,比较于现有的其余办法有近20个百分点的提拔!

不不过CDN,这类办法很简单使用到其余的类似场景,即上一层有繁杂而多变的数据会见形式(Access pattern)的带有缓存的体系了。

更进一步的说,在体系中引入机械进修办法来取代牢固的阈值,我以为是一位对应公用的办法,而且这类办法有应该在许多情形下都会有利益了。体系或许互联网自身大概能进修感知到上一层区别运用区别的数据会见形式,从而自顺应其特征,调理到越发适合的设置之下了。但是这又为体系自身增添了复杂性和不确定性,究竟稳定性.简易牢靠.甚至可复现是基础设施不断以来的寻求拉。因此说,这并不-是放诸四海皆准的灵丹妙药,可是也是一位很意思的新思路拉。

CherryPick【8】是来源耶鲁和微软等四个机构的多方合作项目,其钻研关心在云体系的安排层面,一位云端办事能够运用区别的系统配置呀。但是,为了到达一样的功能,区别的设置应该会致使高达12倍甚至更多的本花费上的差异,这一点在重复性功课 (recurring job) 上显得尤其出色了。主动的在低搜寻空-间下为云端办事找出最优设置所带莱的经济性自-然是显而易见呢。短文运用了一位简易的贝叶斯优化 (Bayesian Optimization) 来帮-助优化搜寻历程,决定搜寻哪一个设置下的运转功能,和什麽时刻截至搜寻以找出最优的系统配置呢。我以为这一个事情建模的体系指-标项仍然相对来说比较简单的,仅思考任-务占用的VM.CPU.内存.磁盘.互联网等静態体系指-标,并不思考数据.体系现在总资本占用.任-务间的彼此滋扰之类的现在全部体系状况相干的疑了。其运用简易模子针对这一特定疑虽然有其利益,可是不必定合适越发繁杂的情形啦。正如Google曾流露你们曾经试图用美化进修优化一些安排疑同样,我信赖机械进修在体系行业运用的钻研才刚刚开始呀。选用数据驱动的办法,经过关于数据的剖析和疑的建模,能够帮-助咋们加深关于繁杂体系的领会,减轻甚至防止经验性的阈值和静態设置,而这一些新的方法论最后将相反影响网络系统的策画呀。

VideoStorm【9】是普林斯顿的Haoyu在微软研究院练习的时刻作的事情啦。跟着DNN在图象视频行业的物体辨认追踪上的不停进展,使用这一办法及时的剖析监控摄像头的数据,完结如车辆追踪这个样子的人工智能任-务已变成实际的需要了。这篇文章针对这个样子一位经典类型的人工智能运用,讨论在给定资本下,综合思考多种视频流任-务的区别品质和区别耽误这一需要,怎么样分派云端资本来同时间处置不计其数个视频流数据任-务的办法了。这一个体系曾经在美国华盛顿州的贝尔维尤市完结布置,为及时交通数据的剖析办事了。这一个现实的疑是深度进修从理-论走向学习和验证的历程中会境遇的实际应战,跟着更多这类运用的布置,相干的网络系统都蕴含着更多相似的新钻研机遇呢。

Big Data session中的四篇短文有三篇跟机械进修相干,第一篇是来源于伯克利RICE实验室,其前身是AMPLab,其产出不止包罗有影响力的论文,更是有影响力的开源工作事情和立业公司,由Databricks公司主导的Spark工作事情曾经在大数据行业进展出繁华的生态链啦。而在这一次的NSDI上,你们揭晓了Clipper【10】体系呀。这是一位以通用性和低耽误为目的的机械进修办事(serving) 体系,对用户端供给一统的接口,而底层则适配多种框架,包罗 Spark MLlib,Caffe,Tensorflow,Scikit-Learn等,从而简化这类办事体系的布置事情了。Clipper体系经过使用缓存(caching),批处理(batching),和自顺应模子抉择(adaptive model selection)来优化耽误,提升吞吐率.准确率.和鲁棒性呀。在现在机械进修技能广泛应用,深度进修框架繁华进展的近况下,Clipper携Spark在大数据系统上的领先地位和MLlib,试图用一位前端框架统一model serving部-分,能够说是雄心壮志啦。但是不同于大数据时期,现在深度进修有更多的底层框架,比如说CNTK和MXNet,也越发依附异构的硬件,比如说GPU.FPGA和以Google的TPU为代表的ASIC,和盘算密集型运用请求关于功能上的极致榨取,这一些都为大一统带莱了更多的应战了。这一次你们可否成-功,咋们将刮目相待啦。

第二篇则是来源CMU的Gaia【11】,探讨怎么样策画体系来对基于全世界分散(geo-distributed)的机械进修数据举行练习呀。此刻许多全化的办事,比如说搜索引擎,都是布置在世界各地的数据中心中就近办事世界各地的用户呢。数据中心里面一样平常都布置有低耽误高带宽的互联网,而数据中心间的网络(WANs)则应该很慢,直-接在区别数据中心间的数据上练习机械进修模子,其练习历程会难解决受限于数据中心间的互联网,短文报-告了高达53x的功能下落呀。这一个事情经过解耦数据中心里面和外面的同步模子来优化功能,提出了一位新的一致性模子 (Approximate Synchronous Parallel) 来进一步的减轻数据中心间的网络通信,而且维持机械进修模子的收敛率拉。这一个事情和Google日前颁布发表的Federated Learning的事情都是旨在思考网络范畴内机械进修模子的练习疑,后者将练习数据疏散到不计其数的用户手机中,协同练习机械模子以晋升模子品质,下降耽误呢。一方面数据中心间甚至平凡网络中的互联网存在带宽低.耽误高.不稳固等疑,另一方面机械进修模子又拥有肯定水平的隐忍差错和耽误更新的特征,这触及到互联网和机械进修算法的协同策画(co-design)的疑,十分的意思呀。

第三篇是咋们的事情TuX²(图进修)【12】,是一位为分布式机械进修策画的全新图盘算引擎拉。

图盘算是一位典范的疑,许多的图盘算体系都专一为诸如PageRank这个样子的典范图盘算疑优化,供给简易而并行没有关系的编程模子,而且能够在体系里面感知图构造举行体系层面优化,从而高性能地举行横向扩大,支撑海量数据拉。咋们的上一位事情,被考取在SoCC’15上的GraM【13】曾经能够高效支撑高达万亿(trillion)边数的超大规模图盘算拉。

基于咋们关于机械进修使用的思索,咋们发觉多种主要的机械进修算法都有自身的图构造模子呀。但是与图盘算算法区别,机械进修算法并不-是很适宜用现有的图盘算引擎来处置,缘故原由能够分为2个层面,其一是缺少关于主要机械进修观点的支撑,比方小分批(mini-batch)和宽松的一致性模子,其二原有图模子过于简易而且在模子形象上灵活性太低,从而为机械进修算法编程和高效施行都带莱了疑拉。

有鉴于此,为了使用图盘算的上风同时间又处理上述的疑,咋们提出了分布式机械进修体系——图进修TuX2 (Tu Xue Xi)呢。TuX2对比于传统的图盘算引擎,在数据模型.安排模子.编程模子三个方方面面都作了主要的扩大,全新的图模子MEGA更是使得分布式图盘算引擎在维持原有的高效性的同时间具有更多的灵活性,支撑Mini-Batch和灵巧一致性模子等主要的机械进修观点,而且更合适编辑繁杂的机械进修算法呀。

功能方方面面, 在高达640亿条边的大规模数据上的试验充分说明,TuX2对比现在最棒的图盘算引擎PowerGraph和PowerLyra都获得了凌驾一位数量级上的功能晋升,这一成就暗地里离不开咋们的异质性(heterogeneity)图节点优化和新编程模子MEGA拉。而比较现有的两大机械进修体系,Petuum和ParameterServer,TuX2在大幅度减轻代码量的同时间带莱了至多48%的功能晋升,这重要是因为咋们的图编程模子MEGA的高层次形象和图盘算体系基于图构造优化呀。

要晓得,大规模分布式机械进修模子的练习变成许多产品线的主要部-分而且耗时好久,咋们体系明显的功能提拔(Efficiency)有用的节约了计算资源,而其扩展性(scalability)使得支撑更大规模的数据变成应该了。

咋们的愿景是盼望TuX2可以或许真实联接图盘算和分布式机械进修2个钻研行业,让更多的机械进修算法和优化可以或许很简易的在图盘算引擎上完成,从而使用好很多的图构造优化技能来举行体系层面的优化,将2个行业的钻研事情更好的联合在一块,为人工智能的以后办事呀。

作者简介

肖文聪

肖文聪,本科毕业于北京航空航天大学计算机学院,2014年参加北京航空航天大学与微软亚洲研究院的结合培育博士生工作事情,导师是北航的李未院士和微软亚洲研究院副院长周礼栋博士啦。钻研方位是大规模分布式图盘算和机械进修体系呢。

相干论文

【1】Lapton:The Design, Implementation, and Deployment of a System to Transparently Compress Hundreds of Petabytes of Image Files for a File-Storage Service

【2】mOS: A Reusable Networking Stack for Flow Monitoring Middleboxes

【3】VFP: A Virtual Switch Platform for Host SDN in the Public Cloud

【4】Let It Flow: Resilient Asymmetric Load Balancing with Flowlet Switching

【5】Flowtune: Flowlet Control for Datacenter Networks

【6】Curator: Self-Managing Storage for Enterprise Clusters

【7】AdaptSize: Orchestrating the Hot Object Memory Cache in a Content Delivery Network

【8】CherryPick: Adaptively Unearthing the Best Cloud Configurations for Big Data Analytics

【9】VideoStorm:Live Video Analytics at Scale with Approximation and Delay-Tolerance

【10】Clipper: A Low-Latency Online Prediction Serving System

【11】Gaia: Geo-Distributed Machine Learning Approaching LAN Speeds

【12】Tux²: Distributed Graph Computation for Machine Learning

【13】GraM: scaling graph computation to the trillions

vfp简单算法的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于vfp简单吗的信息别忘了在本站进行查找喔。


发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。