比特派app官方地址|titanv

作者: 比特派app官方地址
2024-03-07 21:28:30

Titan V和1080 Ti性能测试:基于主流CNN模型 - 知乎

Titan V和1080 Ti性能测试:基于主流CNN模型 - 知乎首发于论智切换模式写文章登录/注册Titan V和1080 Ti性能测试:基于主流CNN模型论智【编者按】2017年底,NVIDIA推出了最新的Titan V GPU,引起了许多机器学习从业者、爱好人员的关注。近日,Hortonworks资深工程主管、Apache软件基金会Apache Ambari项目VP Yusaku Sako在一些流行CNN模型上测试了Titan V和1080 Ti的性能,并授权论智分享给大家。注:以下评测内容来自Yusaku Sako,若有疑义,文末附基准测试代码,请自行验证。NVIDIA最新的“桌面”GPU Titan V,基于Volta架构,参数表中列出了110“深度学习”TFLOPS这样令人难以置信的数字。目前的“桌面”GPU王者1080 Ti则以非常合理的699美元标价提供了11“普通”TFLOPS和11GB GDDR5显存。虽然Titan V的许诺听起来很振奋人心,但2999美元的价格可不是那么容易承受的。然而,你应该为了10倍TFLOPS购买Titan V吗?等于买了10块1080 Ti?还是说,不如花同样的钱买4块1080 Ti?顺便提下,现在DGX工作站正搞促销,售价49900美元(通常售价69900美元)。它配备了4块服务器级别的水冷Tesla V100,参数比台式机级别的Titan V要稍好一点(虽然外形看起来像是BOSS音箱,我猜它附带支持和SLA)。但是,我们大多数人没有这么多钱可以扔出来。即便你真的买了,也不确定它有多少经济意义。所以,问题是,如果你正打算组建你自己的GPU设备,Titan V是否值得购买?首先需要指出的是Titan V和它的服务器级别的大哥Tesla V100是相当新的显卡。V100于2017年5月问世,Titan V于2017年12月刚刚面世。大多数深度学习框架都忙着增加Volta支持,以确保可以利用所有潜在的性能。例如,PyTorch最近才推出了0.3.0版本,增加了对CUDA 9和Volta GPU的支持。我最近正好配了台Titan V的机子,PyTorch社区很棒,帮了我很多(特别感谢Soumith Chintala)。我现在已经可以在Titan V上运行PyTorch,所以编写了一些基准测试代码来演示性能差异。下面是PyTorch 0.3.0上的结果,我后来加入了其他框架(见本文后面增补的部分)。为了公平,我打算在CUDA 9.0.176和CuDNN 7.0.0.5上运行所有测试。Titan V1080 TiTesla V100作为参考,V100的数据(Amazon p3, CUDA 9.0.176, CuDNN 7.0.0.3)。感谢Bartosz Ludwiczuk提供数据。让我们检查上表列出的结果。我们在相同的设置下对比Titan V和1080 Ti(另外,这两张卡都使用同一台计算机的16x PCIE插槽)。上面显示的时间数字是CNN的前向传播(eval)和前向、反向传播(train),单位为毫秒。跑了10次,取平均数。实际上我跑过很多次,这些数字都相当稳定。值得注意的是:显然,Titan V比1080 Ti更快。但是,只比较32位(“单精度”)的话,Titan V只比1080 Ti快20%。Titan V的16位(“半”精度)相比32位有显著的提升。1080 Ti也因半精度受益,但性能提升不像Titan V那样大。这些数字可没在大声尖叫:“天哪!不用动脑,买Titan V就对了!”NVIDIA在10x TFLOPS上说谎了?我确定他们的市场人员是诚实的好人,但这里有很多因素。首先,我确定软件方面还有改进的余地,以充分利用Volta超快的张量核心的潜能。不过,即使到那时,如果大多数代码路径不符合达到最大理论性能的条件,那么我们实际上也只能做这么多了。时间会告诉我们在框架/CUDA/CuDNN层面能有多少改进来尽可能多地利用Volta GPU的能力,但我在流行的CNN(我主要从事计算机视觉领域的工作,因此我比较关注CNN)上观察到的初始数字看起来并没有给出购买Titan V的理由,特别是处于现在这个软件还在追赶的时期。尽管玩玩最新技术并成为早期使用者是很有趣的,但如果你专注于以经济的方式在个人GPU装备上进行AI研究或构建产品,我建议你购买1080 Ti(直到NVIDIA在不久的将来发布一个更好的替代品;他们往往会发布新的版本给我们带来惊喜)。另外值得考虑的是,单张Titan V只有12GB显存,1080 Ti只有11GB显存。但是如果你把本打算买Titan V的钱用来购买4块1080 Ti(价格只计算了GPU,实际上你还得为更强大的电源、能够支持4张显卡的主板、更多的内存、更好的散热等花钱),最终你将得到更多的显存(44GB vs 12GB)。话是这么说,我觉得实际一点的做法是,如果你不打算只买一个GPU,那就买2张1080 Ti。这样,GPU不必堆叠在另一个之上(提供更多的空气流动用于冷却——以免这些显卡因为撞上发热瓶颈而显著损失性能……当然你可以上水冷,但这会显著增加成本、工作量和一些风险)。配备两张显卡的话,GPU的功耗是250Wx2,所以一个比较便宜的电源就够用了。无论如何,我发现,拥有多个GPU,并在多个GPU上分开试验是极有价值的。这样我就可以快速迭代,所以我推荐这个很好的折衷方案。如果你必须配3-4个GPU,却不想上水冷,也不在乎美感或噪音的话,你可以使用PCIE 扩展版或riser,就像这个赢得Kaggle竞赛的配置一样。Vladimir Iglovikov 4块1080 Ti的配置我希望这篇文章对你有帮助。如果你希望知道Titan V或1080 Ti上特定的测试结果,请留言。感谢阅读。其他框架Tensorflow 1.4.0上的测试结果和PyTorch类似。Titan V1080 TiCaffe2 v0.8.1支持Volta架构的16-bit FP(v0.8.0加入),但仅支持到cuDNN7。基准测试显示,半精度运算性能确实提高了,但是vgg16网络上Titan V跑得竟然比1080 Ti慢,看来Caffe2还有不小的优化空间。Titan V1080 Ti性能对比图vgg16 eval(每秒处理图像数)vgg16 train(每秒处理图像数)resnet152 eval(每秒处理图像数)resnet152 train(每秒处理图像数)基准测试代码:https://github.com/u39kun/deep-learning-benchmark原文地址:Titan V vs 1080 Ti — Head-to-head battle of the best desktop GPUs on CNNs. Is Titan V worth it? 110 TFLOPS! no brainer, right?感谢原作者Yusaku Sako授权论智编译,未经授权禁止转载。发布于 2018-01-08 11:08机器学习显卡卷积神经网络(CNN)​赞同 23​​3 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录论智AI新技术【公众号:

[转载]NVIDIA Titan V 科学计算和机器学习能力概览(NVIDIA Titan V vs Titan Xp) - 知乎

[转载]NVIDIA Titan V 科学计算和机器学习能力概览(NVIDIA Titan V vs Titan Xp) - 知乎首发于专业软件电脑硬件选择详解切换模式写文章登录/注册[转载]NVIDIA Titan V 科学计算和机器学习能力概览(NVIDIA Titan V vs Titan Xp)cici xiang​什么都不擅长本文转自 http://www.pugetsystems.com前言NVIDIA在12月8日公布了Titan V,我们在12月11日拿到了2张。之后我们在这张卡上跑了很多机器学习和仿真的案例,并将结果和之前的Titan Xp做比较。结果不是很理想,看上去不像是一张比前代的贵了一倍的最新旗舰卡。NVIDIA对Titan V的期望很高,把他定位为一张次世代神卡。但从我们最初的测试中看不到NVIDA的野心,看上去像是一次例行升级,而不是贵了一倍的大跨越。为了让Titan V物有所值,我花了很多时间对程序进行针对性优化,用上Titan V的新功能。如果将Titan V和Tesla V100相比,那Titan V太实惠了。在“仅仅”$3000美元的售价上提供了大部分Tesla V100的功能,而且还能插在台式机里,还能作为“显卡”。但如果和GeForce 1080Ti 和Titan Xp相比,它们提供了相当不错的单精度计算能力,而且也更便宜,Titan V优势不大。测试平台:NVIDIA Titan V 和Titan Xp (分别运行在两台的机器上)Intel Skylake-X 7960X 16-core CPU.EVGA X299 microATX motherboard64GB DDR4 2666MHz memoryUbuntu 16.04CUDA 9.1 installed on the systemNVIDIA Display driver 387.34NVIDIA Docker v2NVIDIA GPU Cloud (NGC) docker registry所有的测试内容都来源于NVIDIA docker images。NGC docker registry现在对离线工作站开放了,你需要注册成为NVIDIA开发者才能使用API和NGC docker registry。测试应用NVIDIA CUDA nbodyNAMDconvnet benchmarksTensorflowNVIDIA DIGITS with CaffeCUDA nbody 和 NAMD 分子动力学仿真将nbody作为测试基准,是因为它是一个经典的物理、多体力(重力)计算工具。之后使用NAMD进行分子动力学计算,计算100万个“卫星烟草花叶病毒(stmv)”原子。这两个应用都是纯数学运算,而且GPU加速效果显著。CUDA 9.1 nbody , NAMD 2.12

nbody -benchmark -numbodies=256000

namd-multicore-memopt +p16 +setcpuaffinity +idlepoll stmv.namd注1:圆括号里面的结果是在不配置“-numbodies”属性时得到的。如果在测试中配置了bodies,那Titan Xp要比Titan V快很多,我也不知道为什么。注2:对于NAMD,最有意义的测试分数是day/ns。(需要花几天来仿真1纳秒分子运动情况)注3:在跑nbody时,环境是CUDA 9.1,直接安装在机器上。和NVIDA CUDA 9.0相比,两个环境的测试结果没有区别。注3:NAMD测试使用了NGC repository的NVIDA docker image。上面是一年前测试的几张老显卡的结果,用的CUDA 8.0rc和旧版本的NAMD。从这张表里可以看出,之前每代旗舰卡的性能提升都是巨大的。我不明白怎么售价翻倍的Titan V就那么“弱”呢?当然,nbody并不是一个通用的科学计算领域测试标准,但还是能测出之前几代旗舰卡的提升的,怎么到了Titan V上就不好使了呢?同样的事也发生在NAMD上。NAMD虽然是CPU和显卡共同工作,但我用了多核低频和少核高频两种CPU都测过,结果相差不远。Titan V在这项测试中表现不错,配得上一个“强”字,但对不起它的售价和定位。nbody双精度(fp64)Titan V将双精度浮点数计算性能作为杀手锏。这个功能在普通GPU中并不受重视,因为GPU更适合单精度计算。GeForce在fp64计算性能上更是残废(除了没有独立出GeForce系列的那些老Titan)。Titan V继承了Tesla V100完整的双精度(fp64)计算能力,Volta是NVIDA设计的所有架构中最重视fp64性能的,如果要量化的话是1:2,即fp64计算性能是fp32计算性能的一半,这就很厉害了。Titan V相比Titan Xp提升了1280%,也就是差不多13倍。机器学习性能测试我们准备了几个“标准”的机器学习测试项目来测试Titan V的机器学习性能,但发现这些实例都无法利用Tensor核心和半精度计算。Tensor核心是Volta架构的一个独有的硬件功能,这个功能被认为可以大大提升机器学习性能。但是,Tensor核心涉及半精度计算,这就需要调整代码,甚至重新思考AI的实现思路。我们是卖电脑的,对AI的理解还停留在网上下载一段代码,直接按回车键跑一下的程度,因此测不了Tensor核心了。Tensorflow性能测试Convnet是一个卷积神经网络(CNN)测试基准,它可以在很多机器学习框架上运行,GitHub上提供了19个不同框架的版本。源代码和脚本(python)在这个链接下载。这次的测试是在GoogleNet V1 CNN上用Tensorflow进行了100步的forward and backward propagation算法运算,批次是128。docker run --runtime=nvidia --rm -it --shm-size=1g --ulimit memlock=-1 --ulimit stack=67108864 -v /home/kinghorn/projects:/projects nvcr.io/nvidia/tensorflow:17.12

python benchmark_googlenet.py --batch_size="128" --num_batches="100" --data_format="NCHW" | tee GPU-googlenet-128.outV

Card (forward-backward) GoogleNetV1

batch size=128

Titan V (Volta) 0.164 sec/batch

Titan Xp 0.201 sec/batch注1:我使用docker run --runtime=nvidia来配置NVIDIA docker V2。这是V2版本的新特性,在V1版本中的语法是nvidia-docker run,这个语法在V2中也适用。Titan V也就比Titan Xp快了20%吧。Tensorflow LSTM语言模型训练LSTM模型训练用到了一个非常大的词汇库,这个库可以在NGC repository的Tensorflow docker image目录里的nvidia-examples里找到。测试用到了一个包含100万个词汇的数据集。python single_lm_train.py --mode=train --logdir=/logs --num_gpus=1 --datadir=./data/1-billion-word-language-modeling-benchmark-r13output/ --hpconfig run_profiler=False,max_time=${MAX_TRAIN_TIME_SEC},num_steps=20,num_shards=8,num_layers=2,learning_rate=0.2,max_grad_norm=1,keep_prob=0.9,emb_size=1024,projected_size=1024,state_size=8192,num_sampled=8192,batch_size=512Titan V也就比Titan Xp快了10%吧。DIGITS v6.0上的Caffe ImageNet 训练模型NVIDIA DIGITS有一个很好的基于浏览器的界面,新版本6.0除了Caffe和Torch框架,现在还包括Tensorflow。我使用了2012年IMAGENET大型视觉识别挑战赛(ILSVRC2012)的训练图像集,并使用GoogleNet运行,每批次64。数据集包含130万张图片。docker run --runtime=nvidia run --shm-size=1g --ulimit memlock=-1 --rm -it -p 8888:5000 -v /home/kinghorn/projects/data-mnt:/data -v /home/kinghorn/projects/data-mnt/jobs:/workspace/jobs nvcr.io/nvidia/digits:17.12Titan V也就比Titan Xp快了12%吧。结论Titan V是一张好卡,性能比Titan Xp强。我们的测试并没有测出它的所有性能,因此相比前几代Titan的提升,Titan V好像比较弱。我选择的测试项目都是传统的经典GPU加速项目,但是这些项目好像并没有开发出Titan V的新硬件特性。Volta架构的双精度计算能力非常厉害,而且Titan V也没有阉割它。但是开发者的程序都是基于单精度GPU开发的,因为单精度性能强,并且相对容易找到适合的算法。Titan V最有趣的新硬件特性是Tensor核心。 这些硬件单元的性能潜力可能会给可以利用它们的算法提供一个数量级的性能提升。 但是,这需要使用半精度(fp16),并且需要高水平开发者。 我做了一些简单的尝试,使用Caffe2和TensorRT来运行一些可以利用Tensor核心的工作,但是无法获得有用的结果。 NVIDIA的cuDNN和cuBLAS库支持Tensor核心,所以我希望能尽快看到更多使用这个特性的程序。 将来会写关于Tensor核心的评测。就我个人而言,我认为Tensor核心很有前途。但是,我不会对半精度(fp16)感到兴奋,它的精度只有4位,用起来可能会在某些地方出错。我觉得Titan V卖3000美元是可以接受的。它具有Tesla V100的大部分性能和功能,还能装在台式机里。对于开发新CUDA代码的开发人员,我一定会推荐它。对于那些预算紧张的开发者和用现成代码的开发者,Titan Xp和1080Ti就行了,便宜好用,特别是1080Ti。NVIDIA NGC repository中提供的docker images非常好。 NVIDIA对GPU加速计算的生态系统提供了出色的支持。更多文章请浏览文章目录相关阅读:[转载]Titan V渲染能力快览编辑于 2017-12-25 11:45电脑 DIY显卡机器学习​赞同 45​​26 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录专业软件电脑硬件选

Titan Xp被碾压!NVIDIA Titan V游戏实测:2万元值了--快科技--科技改变未来

Titan Xp被碾压!NVIDIA Titan V游戏实测:2万元值了--快科技--科技改变未来

手机版

安卓版

苹果端

博客版

登录

注册

作者私密文章,无浏览权限

返回

因版权限制,过往内容只提供给老鸟级别及以上用户访问

登录

因版权限制,过往内容只提供给老鸟级别及以上用户访问

返回

当前位置:首页 > 资讯中心 > 电脑办公 > 显卡 > 文章详情

正文内容 评论(0)

Titan Xp被碾压!NVIDIA Titan V游戏实测:2万元值了

2017-12-13 22:58:59  出处:快科技 作者:上方文Q 编辑:上方文Q     评论(0)

#NVIDIA#TITAN V

0

0

QQ好友

微博

微信好友

QQ空间

复制链接

0

0

AMD Vega刚刚艰难问世,还没追上竞品的影子,黄老板就再次出招,突然发布了新一代旗舰卡Titan V,基于12nm新工艺、Volta新架构的大核心GV100。

虽然它严格来说是个半专业卡,不会大量上市,不像GTX系列那样适合玩游戏,但毕竟代表着NVIDIA的顶级设计水准,我们仍然好奇用它玩游戏会怎么样。

Titan V基于最高规格的GV100核心,集成211亿个晶体管,拥有5120个CUDA核心、640个Tensor核心、320个纹理单元,核心频率1200-1455MHz,单精度浮点性能15TFlops,同时搭配3072-bit 12GB BHM2显存,等效频率1.7GHz,带宽653GB/s,热设计功耗250W(8+6针供电)。

要价高达3000美元,约合人民币2万元,而在国内电商平台上,有海淘卖家给出的报价高达29999元。 

GamersNexus在拆解了Titan V之后,又对它进行了比较详细的游戏测试,主要对比对象是帕斯卡家族的满血之作Titan Xp,3840个流处理器,加速频率1582MHz,搭配384-bit 12GB GDDR5X显存,带宽548GB/s,价格1200美元。

首先在超频方面,默认状态下,3DMark Fire Strike Extreme循环拷机测试中,峰值核心频率为1682MHz,过热降频后平均1507MHz。

将风扇转速提高到90%,平均核心频率回来到1605MHz,其他不变。继续提高风扇转速并放开功率限制,平均频率可达1672MHz。

最终结果是核心频率、显存频率offset均为200MHz,此时风扇转速保持在100%,核心温度81-84℃。

测试中会考察默频、超频不同状态,平台搭配Core i7-7700K OC 4.5GHz处理器。

3DMark Time Spy图形分数,Titan V超过了1.23万,领先Titan Xp 22%之多,同时领先超频版GTX 1080 Ti 14%。

两个图形子项测试中,领先Titan Xp的幅度也分别有23%、20-21%。

3DMark Fire Strike Ultra里只能领先Titan Xp 7%左右,后者超频还能反超,同时领先超频版GTX 1080 Ti 16%。

两个图形子项测试中,Titan V在第一项中领先,第二项里不占便宜,导致总成绩没有高出太多。

接下来进入游戏测试环节,《Doom》,4K分辨率,Vulkan API,异步计算开启,Titan V默频跑出132FPS,领先Titan Xp 41%之多,后者超频也能被甩开17%,但是如果再超一下Titan V,就能飙到157FPS。

不过,Titan V这里的帧延迟比较大,应该和驱动优化不到位有关。

《狙击精英4》,4K/DX12高画质/异步计算,Titan V轻松跑出115FPS,超越Titan Xp 27%,帧延迟也不错。

《奇点灰烬》里由于CPU成为瓶颈,GTX 1080 Ti、Titan V、Titan Xp的成绩都差不多,98FPS左右。

专门跑GPU测试,4K疯狂画质,Titan V的威力就出来了,默频领先Titan Xp 10%,超频后达到了20%。

《地狱之刃》里Titan V依然很猛,领先Titan Xp 37%之多,超频效果也很明显。

《幽灵行动:荒野》里有点奇怪,Titan V领先幅度很小,甚至GTX 1080 Ti都差不太远,只有大幅超频后帧率明显提升,但帧延迟也变大了。

2K分辨率下也差不多。

《荣耀战魂》里领先14%,超频后几乎没有提升。

《命运2》也是个DX11游戏,Titan V没啥优势。

而且Titan V在游戏里的帧延迟经常会突然增加,原因不明。

RX Vega 64表示很受伤。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:

相关资讯

NVIDIA定价太高 欧洲RTX 40显卡没上市就破发RTX 40显卡从三星8nm升级台积电后:黄仁勋感到失望NVIDIA晒RTX 4090实测成绩:《赛博朋克2077》跑到141帧DLSS 3加持 RTX 4090畅玩8K 60FPS游戏无压力硬刚RTX 40还要等 AMD RX 7000显卡尚未开始生产:11月底才能发

支持打赏

支持0人

反对

打赏

文章价值打分

当前文章打分0 分,共有0人打分

0

0

0

打赏

|

分享好友:

分享至QQ

分享至微博

分享至QQ空间

|

生成海报

保存图片

QQ好友

微博

微信好友

QQ空间

给作者大大一些小奖励

本文收录在

#NVIDIA#TITAN V#Titan Xp

热门文章

换一波

好物推荐

换一波

关注我们

微博:快科技官方

快科技官方微博

今日头条:快科技

带来硬件软件、手机数码最快资讯!

抖音:kkjcn

科技快讯、手机开箱、产品体验、应用推荐...

关于我们

关于我们

隐私权说明

交流合作

加入我们

意见反馈

广告刊例

关注我们

微信公众号:

微博号:快科技官方

QQ群:53467377

安卓客户端下载

IOS客户端下载

快科技(驱动之家旗下媒体)·1997-2024 版权所有

Copyright(C)Mydrivers.com, All Rights Reserved.

豫ICP备2023031922号-1豫公网安备 41010502003949号

热点推荐

好物推荐

 APP下载

手机扫码下载

支持Android/iOS/iPad

 投稿

 纠错

 线索爆料

爆料群

爆料1群

打开微信扫一扫 扫描入群,加入爆料

 意见反馈

 评论

 返回顶部



100%

 

 

图片信息

图片描述:

图片格式:

图片尺寸:

上传时间:

 

 

如何评价Titan V? - 知乎

如何评价Titan V? - 知乎首页知乎知学堂发现等你来答​切换模式登录/注册半导体NVIDIA(英伟达)AMD(超威半导体) 显卡电脑硬件如何评价Titan V?关注者101被浏览98,639关注问题​写回答​邀请回答​好问题​1 条评论​分享​12 个回答默认排序Hirzebruch​ 关注这个玩意就是GV100那个计算卡把显示输出的东西接出来,成了一个能打游戏的计算卡而已。另外就是阉割了NVLink和SLI,这个问题倒是不大,SLI本身就快被放弃了,NVLink一个桥卖600美金。Titan V意味着Titan可能作为一个单独的子品牌出现,类似于Quadro/Tesla等计算卡子品牌。也就是说,NV以后的布局可能是:Tegra系列,包括帕克、哈维.etc:嵌入式平台,面向ADAS、智能汽车、高端移动计算、移动游戏等领域。AMD没有对应。Geforce系列,包括伏特游戏版、安培游戏版.etc:游戏平台,面向高端单机/网络游戏,兼顾廉价神经网络计算。AMD对应就是RX580那一堆。Quadro系列,和Geforce共享核心设计,不带众核(Tensor Core):专业计算平台,定位CAD/CFD/渲染/物理计算/专业计算等领域,主要出货是在单独的工作站上。AMD对应就是蓝色WX系列专业卡,WX9100,SSG之类的。Tesla系列,被动无风扇散热,具备带众核的加速卡版本:专业计算平台,定位CAD/CFD/物理计算/大规模AI等领域,主要出给HPC/机架/集群。AMD对应就是MI25之类的加速卡。Titan系列,和Tesla共享核心设计:专业计算平台,定位大规模AI,主要出货在单独的工作站上。AMD对应就是Vega FE(但其实这个也不能算是对应,Vega FE定位谁也不知道到底是啥)。Tesla是跨界的,就是Tesla的卡能带Quadro的特性也能带titan的特性,既能做AI也能做CAD加速或者大规模科学计算,但因为是被动散热+无显示输出接口,和有风扇有显示接口的其他卡不在一个地方竞争(而且一般塔式机箱的机器不适合用这种纯被动散热的显卡,只能机架用用);Quadro是单纯的CAD、渲染、科学计算加速;Titan是偏AI这边的;Geforce是游戏人员专用,另外就是预算不足的也可以拿他做AI。Quadro/Titan/Geforce都可以上塔式的机器,因为自己有散热风扇。最后就是所有的都是模块化,从一个大核心往下按照不同需求相应屏蔽。总结来说就是,NV先用好产品占了市场,然后把市场细分,按照需求割韭菜。至于AMD会怎么应对?还是先做好自己,踏踏实实研发,拿出有竞争力的产品来,当你性能、价格、功耗、软件综合起来比竞品有优势的时候,不用什么应对策略,老百姓又不是SB。Ryzen不就是一个很好的例子吗?编辑于 2017-12-11 19:43​赞同 103​​27 条评论​分享​收藏​喜欢收起​JensenCat​真的粉丝​ 关注AMD能有什么反应?ps. 想靠7nm救国的朋友们...你们可能要失望了,明年大概率还是被吊抽的局面。AMD确实刚流片了一个7nm GPU,是Vega20,依然64CU,还驮着一堆为HPC而生的东西,所以你觉得图形性能会比Vega10高多少?至于Navi10,第一,这玩意前端和CU都全面更新,效能传闻不错,但芯片规模不大,绝对性能恐怕无法跟NV未来高端芯片竞争,至少单芯片不能。第二,还没流片,产品估计得19年见了。发布于 2017-12-13 11:59​赞同 3​​18 条评论​分享​收藏​喜欢

[转载]NVIDIA Titan V深度学习性能测试(1080Ti/Titan V/Titan V + Tensor cores对比测试) - 知乎

[转载]NVIDIA Titan V深度学习性能测试(1080Ti/Titan V/Titan V + Tensor cores对比测试) - 知乎首发于专业软件电脑硬件选择详解切换模式写文章登录/注册[转载]NVIDIA Titan V深度学习性能测试(1080Ti/Titan V/Titan V + Tensor cores对比测试)cici xiang​什么都不擅长本文转自 http://www.pugetsystems.com前言在一月的文章中,我们发现Titan V相比于它的前辈们性能提升并不是很大,而且由于当时没有合适的Tensor-cores测试代码,我们并没有完整评价Titan V的机器学习性能。当时在文章中承诺了在找到合适的测试代码后对Titan V进行下一步测试,现在我们来了。Tensor-cores是NVIDIA Volta架构的一个新特性。现在只有Tesla V100、Quadro GV100 和Titan V拥有这个核心。先从Wikipedia Volta page上摘抄一段它的定义:Tensor cores:这个单元先将两个4×4 FP16矩阵相乘,之后使用融合乘加运算将第三个FP16或FP32矩阵添加到结果中。最终得到一个FP32的结果,也能降级为FP16。Tensor cores被设计用来加速神经网络的训练。大部分机器学习/ AI计算归结为简单的数值线性代数运算,其中基本的运算就是矩阵(张量)乘法。可以设计算法将运算分割到更小的块来使用特殊的硬件单元和存储器结构。为了利用Tensor-core架构,NVIDIA已经在CUDA库中实现了这一操作。这意味着像TensorFlow这种能够利用这些库的框架可以使用这个特殊硬件来得到加速效果。什么是FP16?FP16是16-bit浮点数,也被称为半精度。在GPU计算中大多使用FP32单精度浮点数,这是因为GPU最擅长计算FP32。传统基于CPU的科学计算都是FP64双精度的。那这些精度有什么差异呢?下面举个例子:半精度,FP16:14239812.438711809相当于14240000单精度,FP32:14239812.438711809相当于14239812双精度,FP64:14239812.438711809相当于14239812.43871181简单的讲,半精度就是保留4位有效数字,单精度是8位,双精度是16位。当然,更长的精度也是有的。“扩展精度”通常会保留20位有效数字,大多数CPU和编译器会在内部使用它来处理sin,cos,exp,log,bessel,erf等操作的中间步骤以保证在进行这些运算时不会丢失有效数字。偶尔也会使用四倍精度(FP128)进行不稳定数值的计算,从而得到34位有效数字。精度在机器学习中发挥的作用精度会影响计算结果,有一个完整的规则来确定计算精度及误差。数值分析就是研究计算算法是如何受数值近似影响的。在计算机上,二进制数(1和0)以外的数字都是近似值。“精度”是判断该值近似成度的指标。在Tensor-cores的定义中提到了将FP16计算结果保存到FP32。这非常重要,因为当你做乘法时会保留一定有效数字,但是在做加减法时会丢失有效数字。这通常被称为累积误差。大多数计算都能归结为乘法或者加法,只要在做加法时注意累积误差,那在做乘法时就不会丢失精度。这需要在计算中使用更高的精度。这也是在Tensor-cores定义中提到了“获得FP32计算结果”的原因。这一操作被称为混合精度,只要在算法中对其小心处理,就能得到正确的计算结果。如果你是一名计算桥梁部件应力的工程师,那你不可能考虑FP16。但对于那些“学习”一百万个参数的深度学习神经网络模型来说,FP16可能会适用。为什么FP16和Tensor-cores可能适用于深度学习?注意,这里是“可能”适用于。我一直在做数值运算测试来保证使用如此短的精度不会出现问题。机器学习实际上只是数值优化,就是调整一些参数来保证“损失函数”达到最小值,也可以说是使模型中预测值与已知真实值尽可能接近(这是监督学习)。 优化问题不是稳定的,但下面是我认为FP16混合精度适用于训练深度神经网络(DNN's)的原因:对精度灵敏度低一个多层DNN拥有上百万个参数(加权的)需要优化。模型非常庞大和复杂以至于对优化参数的小改动不太可能对模型的整体预测能力产生太大影响。例如,你认为第1,240,037个参数的值是1.238还是1.241会有什么不同?我没有研究过DNN优化参数的灵敏度,但我觉得给定大量FP16参数可能足以表现出模型中的显着性。使用FP16会造成一个和参数灵敏度有关的问题,那就是加剧梯度消失和梯度膨胀。梯度是一个偏导数矢量,用于计算下降方向以使损失函数最小化。 这是“学习”的关键因素。 梯度中的精度损失可能导致值的下溢或溢出,并导致数值不稳定,最终学习失败。 但是,可以通过动态“剪切”或重新缩放梯度来解决这个问题,以保持精度。 这是个合理的做法,被用于很多案例中。避免过拟合在训练神经网络时会碰到一个问题,那就是参数过拟合——学习得到的优化参数准确拟合训练数据但不能推广到测试样本。这是训练大量参数时引发的问题。解决方法有正规化(Regularization)、dropout、early stopping等等。这些方法能够避免过拟合,同时提供一个更平滑的拟合曲线。从一般意义上说,这些方法试图限制优化过程变得“太好”。 计算参数更新时使用较低精度可能有助于模型的整体拟合。以上就是我认为为什么FP16可能适合DNN的原因。 这些都是“推论”,但也可能是完全正确的,在开发模型的时候可以参考一下。 如果你需要减少经过训练的模型的规模和复杂性,以便将其部署在硬件性能不那么强的生产环境中, 降低精度也可能有用。虽然上面用到了很多“可能”、“大概”、“也许”,如果你有机会使用Volta架构GPU,尝试使用FP16和Tensor-cores混合精度是绝对值得的。 下面的测试的结果可能会鼓励你尝试。Tensor-core CNN 性能测试测试使用了Intel Xeon-W单路处理器和ECC内存以保证有四条X16 PCI-E通道给GPU使用。在之后的几周里我会测试四路Titan V的性能表现。下面的测试结果包含了几个运用TensorFlow的卷积神经网络模型,并使用编造的训练数据。运行的代码都是 NVIDIA NGC的TensorFlow docker image里找到的。这个应用在nvidia-examples directory里叫cnn。命令行如下:(在执行docker login http://nvcr.io进入NGC doker registry之后)docker run --runtime=nvidia --rm -it -v $HOME/projects:/projects nvcr.io/nvidia/tensorflow:18.03-py2下面是测试结果:(单位:张图像/秒)这显然不是对Tensor-cores的全面评估。 但是这提供了我们进一步研究的动力。 预计在接下来的几周内会有更多关于Titan V的内容。 希望能够很快测试4张显卡,当然还会包括使用Tensor-cores的案例。更多文章请浏览文章目录相关阅读:[转载]NVIDIA Titan V 科学计算和机器学习能力概览(NVIDIA Titan V vs Titan Xp)[转载]Titan V渲染能力快览编辑于 2018-04-23 13:43电脑 DIY显卡深度学习(Deep Learning)​赞同 37​​1 条评论​分享​喜欢​收藏​申请转载​文章被以下专栏收录专业软件电脑硬件选

NVIDIA TITAN V Specs | TechPowerUp GPU Database

NVIDIA TITAN V Specs | TechPowerUp GPU Database

Home

Reviews

Forums

Downloads

Case Mod Gallery

Databases

Databases…

Back

VGA Bios Collection

GPU Database

CPU Database

SSD Database

Review Database

Upcoming Hardware

Our Software

Our Software…

Back

GPU-Z

RealTemp

NVCleanstall

TPUCapture

MemTest64

More

More…

Back

Articles

Old Stuff

Computer Trivia

TPU Live

Contact Us

GPU Database

TITAN V Specs

Report an Error

NVIDIA TITAN V

Graphics Processor

GV100

Cores

5120

TMUs

320

ROPs

96

Memory Size

12 GB

Memory Type

HBM2

Bus Width

3072 bit

GPU

I/O

Top

Bottom

Rear

PCB Front

PCB Back

Recommended Gaming Resolutions:

1920x1080

2560x1440

3840x2160

The TITAN V was an enthusiast-class graphics card by NVIDIA, launched on December 7th, 2017. Built on the 12 nm process, and based on the GV100 graphics processor, in its GV100-400-A1 variant, the card supports DirectX 12. This ensures that all modern games will run on TITAN V. The GV100 graphics processor is a large chip with a die area of 815 mm² and 21,100 million transistors. It features 5120 shading units, 320 texture mapping units, and 96 ROPs. Also included are 640 tensor cores which help improve the speed of machine learning applications. NVIDIA has paired 12 GB HBM2 memory with the TITAN V, which are connected using a 3072-bit memory interface. The GPU is operating at a frequency of 1200 MHz, which can be boosted up to 1455 MHz, memory is running at 848 MHz. Being a dual-slot card, the NVIDIA TITAN V draws power from 1x 6-pin + 1x 8-pin power connector, with power draw rated at 250 W maximum. Display outputs include: 1x HDMI 2.0, 3x DisplayPort 1.4a. TITAN V is connected to the rest of the system using a PCI-Express 3.0 x16 interface. The card's dimensions are 267 mm x 112 mm x 40 mm, and it features a dual-slot cooling solution. Its price at launch was 2999 US Dollars.

Graphics Processor

GPU Name

GV100

GPU Variant

GV100-400-A1

Architecture

Volta

Foundry

TSMC

Process Size

12 nm

Transistors

21,100 million

Density

25.9M / mm²

Die Size

815 mm²

Graphics Card

Release Date

Dec 7th, 2017

Generation

GeForce 10

Predecessor

GeForce 900

Successor

GeForce 20

Production

End-of-life

Launch Price

2,999 USD

Bus Interface

PCIe 3.0 x16

Reviews

4 in our database

Relative Performance

GeForce 210

1%

GeForce 9400 GT

1%

Radeon HD 4550

1%

Radeon HD 5450

2%

Radeon HD 6450

2%

GeForce GT 520

2%

GeForce GT 220

2%

GeForce GT 430

3%

Radeon HD 5570

3%

Radeon HD 4670

3%

GeForce GT 440

4%

GeForce GT 240

4%

GeForce 9600 GT

4%

Radeon HD 5670

5%

GeForce GT 640

5%

GeForce 9800 GT

5%

Radeon HD 6670

5%

Radeon HD 4830

5%

Radeon HD 4770

6%

Radeon HD 4850

6%

GeForce GTS 250

6%

GeForce GTS 450

6%

Radeon HD 5750

7%

Radeon HD 7750

8%

Radeon HD 5770

8%

GeForce GTX 260

8%

Radeon HD 4870

8%

Radeon Vega 8

8%

GeForce GTX 550 Ti

8%

GeForce GTX 650

8%

Radeon HD 5830

8%

Radeon HD 6790

9%

Radeon HD 4890

9%

GeForce GTX 460

9%

Radeon RX Vega 11

9%

GeForce GT 1030

10%

GeForce GTX 275

10%

Radeon HD 7770 GHz Edition

10%

GeForce GTX 280

10%

GeForce GTX 465

10%

Radeon HD 6850

10%

GeForce GTX 285

11%

Radeon HD 5850

11%

GeForce GTX 650 Ti

11%

Radeon HD 7790

11%

Radeon RX 550

12%

GeForce GTX 470

12%

Radeon HD 6870

12%

Radeon HD 5870

13%

GeForce GTX 560 Ti

14%

Radeon HD 4870 X2

14%

GeForce GTX 750 Ti

14%

Radeon HD 6950

14%

GeForce GTX 295

15%

GeForce GTX 650 Ti Boost

15%

Radeon HD 7850

15%

GeForce GTX 480

15%

Radeon HD 6970

16%

Radeon R7 265

16%

Radeon RX 460

16%

Radeon R7 370

16%

GeForce GTX 660

16%

GeForce GTX 570

16%

Radeon RX 560

17%

GeForce GTX 950

18%

Radeon HD 7870 GHz Edition

18%

Radeon R9 270X

18%

GeForce GTX 660 Ti

19%

GeForce GTX 580

19%

GeForce GTX 1050

19%

Radeon HD 7950

19%

GeForce GTX 1630

19%

Radeon HD 5970

19%

GeForce GTX 760

20%

GeForce GTX 670

21%

GeForce GTX 960

22%

Radeon R9 380

22%

Radeon R9 285

23%

Radeon HD 7970

23%

GeForce GTX 680

23%

GeForce GTX 1050 Ti

24%

GeForce GTX 770

24%

Radeon HD 6990

25%

Radeon R9 280X

25%

GeForce GTX 590

26%

Radeon HD 7970 GHz Edition

26%

GeForce GTX 780

28%

Arc A380

28%

Radeon RX 6400

29%

GeForce GTX 1650

29%

Radeon RX 470

31%

Radeon R9 290

32%

Radeon RX 570

33%

Radeon R9 390

34%

Radeon R9 290X

34%

GeForce GTX 970

34%

GeForce GTX TITAN

35%

GeForce GTX 780 Ti

35%

Radeon R9 390X

36%

Radeon HD 7990

36%

Radeon RX 480

36%

GeForce GTX 690

37%

GeForce GTX 1060 6 GB

38%

Radeon RX 5500 OEM

38%

Radeon RX 580

39%

Radeon RX 5500 XT

39%

Radeon RX 6500 XT

39%

GeForce GTX 980

39%

GeForce GTX 1650 SUPER

40%

Radeon R9 FURY

40%

Radeon RX 590

42%

Radeon R9 295X2

44%

GeForce GTX 1660

44%

Radeon R9 FURY X

45%

GeForce GTX 980 Ti

45%

GeForce GTX TITAN X

47%

GeForce GTX 1660 SUPER

48%

GeForce GTX 1070

51%

GeForce GTX 1660 Ti

51%

GeForce RTX 3050 8 GB

51%

Radeon RX Vega 56

54%

GeForce GTX 1070 Ti

57%

Radeon RX 5600 XT

58%

Radeon RX Vega 64

59%

GeForce GTX 1080

60%

GeForce RTX 2060

60%

Radeon RX 5700

62%

Arc A580

62%

Radeon RX 6600

65%

GeForce RTX 2060 SUPER

67%

GeForce RTX 2070

68%

Radeon RX 5700 XT

68%

GeForce RTX 3060 12 GB

69%

Arc A750

71%

Radeon VII

72%

TITAN X Pascal

74%

Radeon RX 6600 XT

74%

GeForce GTX 1080 Ti

76%

Arc A770

77%

GeForce RTX 2070 SUPER

77%

Radeon RX 6650 XT

81%

Radeon RX 7600

82%

GeForce RTX 4060

82%

GeForce RTX 2080

82%

Radeon RX 7600 XT

84%

GeForce RTX 2080 SUPER

86%

GeForce RTX 3060 Ti

89%

Radeon RX 6700 XT

92%

Radeon RX 6750 XT

97%

GeForce RTX 4060 Ti 8 GB

98%

GeForce RTX 2080 Ti

99%

TITAN V

100%

GeForce RTX 3070

104%

GeForce RTX 3070 Ti

111%

Radeon RX 7700 XT

112%

Radeon RX 6800

114%

GeForce RTX 4070

127%

Radeon RX 6800 XT

130%

GeForce RTX 3080

135%

Radeon RX 7800 XT

136%

Radeon RX 6900 XT

140%

GeForce RTX 4070 SUPER

147%

Radeon RX 7900 GRE

150%

GeForce RTX 3080 Ti

151%

Radeon RX 6950 XT

151%

GeForce RTX 3090

154%

GeForce RTX 4070 Ti

158%

GeForce RTX 4070 Ti SUPER

172%

Radeon RX 7900 XT

177%

GeForce RTX 3090 Ti

179%

GeForce RTX 4080

200%

GeForce RTX 4080 SUPER

203%

Radeon RX 7900 XTX

205%

GeForce RTX 4090

252%

Based on TPU review data: "Performance Summary" at 1920x1080, 4K for 2080 Ti and faster.

Performance estimated based on architecture, shader count and clocks.

Clock Speeds

Base Clock

1200 MHz

Boost Clock

1455 MHz

Memory Clock

848 MHz

1696 Mbps effective

Memory

Memory Size

12 GB

Memory Type

HBM2

Memory Bus

3072 bit

Bandwidth

651.3 GB/s

Render Config

Shading Units

5120

TMUs

320

ROPs

96

SM Count

80

Tensor Cores

640

L1 Cache

96 KB (per SM)

L2 Cache

4.5 MB

Theoretical Performance

Pixel Rate

139.7 GPixel/s

Texture Rate

465.6 GTexel/s

FP16 (half)

29.80 TFLOPS (2:1)

FP32 (float)

14.90 TFLOPS

FP64 (double)

7.450 TFLOPS (1:2)

Board Design

Slot Width

Dual-slot

Length

267 mm

10.5 inches

Width

112 mm

4.4 inches

Height

40 mm

1.6 inches

TDP

250 W

Suggested PSU

600 W

Outputs

1x HDMI 2.03x DisplayPort 1.4a

Power Connectors

1x 6-pin + 1x 8-pin

Board Number

PG500 SKU 0

Graphics Features

DirectX

12 (12_1)

OpenGL

4.6

OpenCL

3.0

Vulkan

1.3

CUDA

7.0

Shader Model

6.7

Card Notes

Base Clock:

Deep Learning: 98.304TFLOPs

Boost Clock:

Deep Learning: 119.193TFLOPs

GV100 GPU Notes

Tensor Cores: 1st Gen

NVENC: 6th Gen

NVDEC: 3rd Gen

PureVideo HD: VP9

VDPAU: Feature Set I

Mar 7th, 2024 21:28 PST

change timezone

Sign in / Register

Latest GPU Drivers

NVIDIA GeForce 551.76 WHQL

AMD Radeon 24.2.1 WHQL

Intel Arc & IGP 101.5333 WHQL

New Forum Posts

21:27

by

Chrispy_

Severe lag and audio issues on a brand new custom build (16)

21:26

by

squallypo

which of the following case fans would benefit me best for this build? (5)

21:24

by

dgianstefani

Is Intel going to deliver a processor/chipset worth waiting for? (203)

21:12

by

kapone32

What are you playing? (20084)

21:05

by

Chloefile

F.E.A.R. 2: best of the series? (46)

20:09

by

Klemc

Windows 11 General Discussion (4996)

19:53

by

RayongRay

Your Core i9-10850K/10900K settings? (71)

19:51

by

kilo

The Official Linux/Unix Desktop Screenshots Megathread (678)

19:49

by

Waldorf

Which is better for improving videos - GTX 1080 ti x RTX 3060 12G (21)

19:39

by

P4-630

What phone you use as your daily driver? And, a discussion of them. (1383)

Popular Reviews

Feb 13th, 2024

Chat with NVIDIA RTX Tech Demo Review

Feb 22nd, 2024

Sparkle Arc A380 Genie Review

Feb 14th, 2024

Scythe Fuma 3 Review

Feb 12th, 2024

Upcoming Hardware Launches 2023 (Updated Feb 2024)

Feb 20th, 2024

Arctic Liquid Freezer III 240 Black Review - Intel Contact Frame Included

Feb 15th, 2024

NVIDIA GeForce RTX 3050 6 GB Review - The Fastest Slot-Powered GPU

Feb 26th, 2024

Sapphire Radeon RX 7900 GRE Pulse Review

Feb 13th, 2024

G.SKILL Trident Z5 RGB DDR5-6400 64 GB CL32 Review

Feb 16th, 2024

DELUX M800 Ultra Review

Feb 19th, 2024

EK Nucleus AIO CR360 Lux D-RGB Review

Controversial News Posts

Intel Core i9-14900KS Draws as much as 409W at Stock Speeds with Power Limits Unlocked

(226)

AMD Ryzen 9 7900X3D Drops to $409, to Clash with Core i7-14700K

(142)

NVIDIA Accused of Acting as "GPU Cartel" and Controlling Supply

(126)

NVIDIA GeForce RTX 4070 Ti Drops Down to $699, Matches Radeon RX 7900 XT Price

(122)

NVIDIA RTX 50-series "Blackwell" to Debut 16-pin PCIe Gen 6 Power Connector Standard

(103)

Widespread GeForce RTX 4080 SUPER Card Shortage Reported in North America

(95)

Elon Musk Sues Open AI and Sam Altman for Breach of Founding Contract

(94)

Windows 11 24H2 Instruction Requirement Affects Older/Incompatible CPUs

(85)

Copyright © 2004-2024 www.techpowerup.com.

All rights reserved.

All trademarks used are properties of their respective owners.

NVIDIA TITAN V_百度百科

IA TITAN V_百度百科 网页新闻贴吧知道网盘图片视频地图文库资讯采购百科百度首页登录注册进入词条全站搜索帮助首页秒懂百科特色百科知识专题加入百科百科团队权威合作下载百科APP个人中心收藏查看我的收藏0有用+10NVIDIA TITAN V播报讨论上传视频一款NVIDIA系列的显卡NVIDIA TITAN V是一款NVIDIA系列的显卡。 [1]中文名NVIDIA TITAN V芯片厂商NVIDIA显卡芯片TITAN V显存容量12GB显卡类型发烧级目录1重要参数2详细参数重要参数播报编辑核心频率:1200/1455MHz显存频率:1700MHz显存位宽:3072bit [1]详细参数播报编辑制作工艺12纳米核心代号GV100CUDA核心5120个显存规格显存类型HBM2最大分辨率7680×4320显卡接口接口类型PCI Express 3.0 16XI/O接口1×HDMI接口,3×DisplayPort接口电源接口6pin+8pin其它参数散热方式涡轮风扇3D APIDirectX 12.1,OpenGL 4.5支持HDCP是最大功耗250W建议电源600W以上其它特点显存带宽:652.8GB/sL2缓存:4408K内存频率:850MHz纹理单元:320晶体管数:210亿上市日期2017年12月参考资料 [1]新手上路成长任务编辑入门编辑规则本人编辑我有疑问内容质疑在线客服官方贴吧意见反馈投诉建议举报不良信息未通过词条申诉投诉侵权信息封禁查询与解封©2024 Baidu 使用百度前必读 | 百科协议 | 隐私政策 | 百度百科合作平台 | 京ICP证030173号 京公网安备110000020000

NVIDIA TITAN V Transforms the PC into AI Supercomputer | NVIDIA Technical Blog

NVIDIA TITAN V Transforms the PC into AI Supercomputer | NVIDIA Technical Blog

DEVELOPER

HomeBlogForumsDocsDownloadsTraining

Search

Join

Related Resources

Data Science

NVIDIA TITAN V Transforms the PC into AI Supercomputer

Dec 08, 2017

By Brad Nemire

Like

Discuss (0)

L

T

F

R

E

NVIDIA introduced TITAN V, the world’s most powerful GPU for the PC, driven by the world’s most advanced GPU architecture, NVIDIA Volta.

Announced by NVIDIA founder and CEO Jensen Huang at the annual NIPS conference, TITAN V excels at computational processing for scientific simulation. Its 21.1 billion transistors deliver 110 teraflops of raw horsepower, 9x that of its predecessor, and extreme energy efficiency.

“Our vision for Volta was to push the outer limits of high performance computing and AI. We broke new ground with its new processor architecture, instructions, numerical formats, memory architecture and processor links,” said Huang. “With TITAN V, we are putting Volta into the hands of researchers and scientists all over the world. I can’t wait to see their breakthrough discoveries.”

NVIDIA Supercomputing GPU Architecture, Now for the PC

TITAN V’s Volta architecture features a major redesign of the streaming multiprocessor that is at the center of the GPU. It doubles the energy efficiency of the previous generation Pascal™ design, enabling dramatic boosts in performance in the same power envelope.

New Tensor Cores designed specifically for deep learning deliver up to 9x higher peak teraflops. With independent parallel integer and floating-point data paths, Volta is also much more efficient on workloads with a mix of computation and addressing calculations. Its new combined L1 data cache and shared memory unit significantly improve performance while also simplifying programming.

Fabricated on a new TSMC 12-nanometer FFN high-performance manufacturing process customized for NVIDIA, TITAN V also incorporates Volta’s highly tuned 12GB HBM2 memory subsystem for advanced memory bandwidth utilization.

Read more >

Related resources

GTC session: AI Supercomputing: Pioneering the Future of Computational ScienceGTC session: Accelerate Your Innovations With NVIDIA's Platform for Science and EngineeringGTC session: Accelerating Autonomous Vehicle Development With High-Performance AI ComputingNGC Containers: NVIDIA Optimized Deep Learning Framework powered by Apache MXNetSDK: Magnum IOWebinar: Accelerate AI Model Inference at Scale for Financial Services

Discuss (0)

Like

Tags

Data Science | Academia / Education | CUDA | cuDNN | News | GeForce | Machine Learning & Artificial Intelligence

About the Authors

About Brad Nemire

Brad Nemire leads the Developer Communications team at NVIDIA. Prior to NVIDIA, he worked at Arm on the Developer Relations team. Brad graduated from San Diego State University and currently resides in Silicon Valley.

View all posts by Brad Nemire

Comments

Related posts

NVIDIA Reveals the TITAN of Turing: TITAN RTX

NVIDIA Reveals the TITAN of Turing: TITAN RTX

Programming Tensor Cores in CUDA 9

Programming Tensor Cores in CUDA 9

NVIDIA Deep Learning SDK Update for Volta Now Available

NVIDIA Deep Learning SDK Update for Volta Now Available

Top AI Researchers Receive First NVIDIA Tesla V100s

Top AI Researchers Receive First NVIDIA Tesla V100s

Inside Volta: The World’s Most Advanced Data Center GPU

Inside Volta: The World’s Most Advanced Data Center GPU

Related posts

Make the Most of NVIDIA GTC 2024 with In-Person, Hands-On Learning

Make the Most of NVIDIA GTC 2024 with In-Person, Hands-On Learning

Just Released: NVIDIA HPC SDK v24.1

Just Released: NVIDIA HPC SDK v24.1

Just Released: NVIDIA Modulus 24.01

Just Released: NVIDIA Modulus 24.01

Delivering Efficient, High-Performance AI Clouds with NVIDIA DOCA 2.5

Delivering Efficient, High-Performance AI Clouds with NVIDIA DOCA 2.5

Release: PyTorch Geometric Container for GNNs on NGC

Release: PyTorch Geometric Container for GNNs on NGC

L

T

F

R

E

NVIDIA发布TITAN V显卡:基于Volta架构,售价近2万元 - 超能网

NVIDIA发布TITAN V显卡:基于Volta架构,售价近2万元 - 超能网

E

X

P

精选

编辑推荐

每月最佳

朝花夕拾

专题

E周刊

论坛

评测

CPU评测

显卡评测

主板评测

电源评测

笔记本评测

所有评测

视频

每月装机

随便开个箱

灯Show

课堂

超能课堂

有问有答

淘攻略

快讯

产品

CPU

显卡

主板

存储

笔记本

电源

机箱

手机

散热器

外设

智能生活

其它

天梯榜

GPU天梯榜

CPU天梯榜

电源天梯榜

取消

CES 2024

2023年度回顾

2023年度最佳产品

超能网2024春季招聘

2022年度最佳产品

2023年度回顾

2021年度最佳产品

显卡十大高手争霸战

PC电源十万个为什么

年度横评

RTX 3060/3060 Ti

赛博朋克2077

RTX 3070评测合辑

RTX 3080评测合辑

显卡如何加速创作应用

一图看懂主板芯片组

登 录

注 册

快讯

显卡

NVIDIA

TITAN V

Volta

NVIDIA发布TITAN V显卡:基于Volta架构,售价近2万元

alexallen发布于

2017-12-8 13:11

112

正努力加载中…

编辑

评论

标题

链接

查错

图文

拼 命 加 载 中 ...

时至年底,眼看大家都不会在今年在看到什么惊喜时,NVIDIA

CEO黄仁勋却在近日召开的NIPS大会上,突然公布了首款基于Volta架构的显卡TITAN

V,宣称这是目前PC上最强大的显卡,深度学习运算能力达到110TFLOPS,当然价格也同样强大,卖到2999美元(约合人民币1.9万元)。NVIDIA的Volta架构是原来用于超算(Supercomputeing)平台上,NVIDIA此前推出过面向商用和科研用的GPU加速卡Tesla V100,这次TITAN

V则是针对消费PC市场。新架构相比Pascal有两倍的效能提升,并针对时下流行的AI、机器学习特性,加入了Tensor张量运算单元,另外Volta架构还在总线上用到第二代NVLink,双向总带宽达到300GB/s。从NVIDIA放出的照片俩看,TITAN

V显卡在外观上还是继续了10系显卡的钻石切割设计外观,采用土豪金配色,仍为单涡轮风扇散热。显卡内部核心(GV100)采用台积电的12nm

FFN制程工艺,晶体管数量达到211亿个,共计5120个CUDA单元,核心基础频率1200MHz,Boost频率1455MHz,最大能提供110TFLOPS深度学习运算能力,为前代TITAN Xp的9倍之多,而单精度性能为15TFLOPS。TITAN V从Tesla V100的4096-bit、16GB缩减为3072-bit、12GB的HBM2显存,显存频率850MHz,等效数据频率1700MHz,带宽高达652.8GB/s,另外TITAN V的L2缓存减少到4.5MB,这些使得在深度学习运算性能上稍不如Tesla V100(112TFLOPS),显卡供电接口是6+8pin,显卡TDP 250W,显示接口为3个DP+1个HDMI。除了硬件规格方面的强大外,NVIDIA还为新显卡提供了免费的AI软件,用于在其GPU

Cloud平台上进行开发,所以TITAN V不仅仅是一张游戏卡,它也可以胜任AI、深度学习和高性能运算方面的工作。对这张卡如若想知道其他小道消息可以关注下我们小超哥朋友圈哦(微信1111888)。TITAN V显卡售价达到了2999美元,目前已经在NVIDIA美国官网开卖,感兴趣的玩家可以点这里。官方图赏(可点击放大):

×

热门聚合

CES 2024

2023年度回顾

2023年度最佳产品

超能网2024春季招聘

2022年度最佳产品

2023年度回顾

2021年度最佳产品

显卡十大高手争霸战

PC电源十万个为什么

年度横评

RTX 3060/3060 Ti

赛博朋克2077

RTX 3070评测合辑

RTX 3080评测合辑

显卡如何加速创作应用

一图看懂主板芯片组

CES 2020

2019年度最佳产品

电源的十万个为什么

首发评测

Ryzen 9 3900X

RX 5700/RX 5700X

RTX 2060 SUPER

RTX 2070 SUPER

显卡天梯榜

CPU天梯榜

2018最佳产品

吃鸡电脑怎么配

超能课堂

SSD固态硬盘横评

怎么刷BIOS

4K分辨率

显卡测试有什么用

什么是核心显卡

SSD与普通HD的区别

Ryzen 7 3700X

台北电脑展2019

618精选

苹果秋季发布会

展开

热门文章

日榜

周榜

月榜

1Arctic推出Freezer 36系列散热器:风扇采用卡扣固定,提供双滚珠风扇版本

2威刚把PCB散热涂层技术用到高频内存上,可提升10%的散热能力

3《对马岛之魂 : 导演剪辑版》 将于5月16日登陆PC,Steam国区售价414元

4传ASML有意搬离荷兰:产能扩张需求,不满当地营商环境

5英伟达打击第三方公司兼容CUDA,摩尔线程表示未受到影响

6酷冷至尊MasterBox 600上市:ATX中塔背插机箱,黑白双色,299元起

7卡普空新作《祇:女神之路》公布新预告,将于2024年正式发售

8《冰汽时代2》PC版将于7月25日发售,同时首发加入Game Pass

9传英特尔敲定酷睿i9-14900KS发布时间:3月14日,售价739美元

1微星准备新款RTX 4070 Ti SUPER,分别为EXPERT和AERO系列

2追风者发布新款XT系列机箱:三种型号,黑白双色,满足新硬件不断升级的需求

3iGame RTX 4080 SUPER Ultra W OC显卡评测:这次来挑战一下颜价比

4传Nintendo Switch 2性能有限,任天堂新主机或不敌Xbox Series S

5华硕释出两款新NUC的细节,并非全部采用Meteor Lake处理器

6AMD的HDMI 2.1开源驱动程序提案遭拒:Linux上没有4K@120Hz和5K@240Hz

7Dell确认英伟达明年推出Blackwell架构B200,功耗或达到1000W

8九州风神推出玄冰400/500数显版散热器:将顶盖智能数显设计带到100元价位段

9乔思伯推出N4和TK-3:新款NAS及ATX曲面海景房机箱

12024秋季招聘:诚邀内容/视频编辑

2玩家显卡温度离奇飙升,原因竟是导热垫遭蚂蚁啃食

3内存价格涨势或确定,预计至少持续半年

4影驰HOF EXTREME DDR5-8000内存评测:优雅外观下藏着极高的性能

5NVIDIA Chat with RTX已提供下载,完全运行在本地的AI助手

6选电源还得看这里,电源天梯榜ATX 3版正式上线!

7CPSC要求Cablemod召回12VHPWR定制适配器,索赔金额已超74500美元

8酷冷至尊推出NR200P V2机箱:保持结构紧凑,更多功能和更强散热

9英伟达发布GeForce Hotfix 551.46驱动:修复了多个卡顿问题

已有 112 条评论,共 337 人参与。

请 登录 或 快速注册 后发表评论

这些评论亮了

超能网友教授 2017-12-08 13:44    | 

加入黑名单

本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。

已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复

9#

超能网友教授 2017-12-21 16:38    | 

加入黑名单

已经隐藏15层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-11 22:49 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:40 已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 12:15 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-11 22:49 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

117#

超能网友教授 2017-12-21 16:36    | 

加入黑名单

已经隐藏15层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-11 22:49 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:40 已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 12:15 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-11 22:49 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有0次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复

116#

游客  2017-12-12 08:44

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

115#

游客  2017-12-11 22:49

已经隐藏14层评论 [+]超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 12:15 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:40 已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 12:15 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

114#

游客  2017-12-10 12:38

游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 17:07

支持(4)  |  

反对(2)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复

113#

游客  2017-12-09 23:04

该评论年代久远,荒废失修,暂不可见。

已有0次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复

112#

游客  2017-12-09 22:47

游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 17:07

支持(4)  |  

反对(2)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

111#

游客  2017-12-09 17:07

该评论年代久远,荒废失修,暂不可见。

已有0次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复

110#

游客  2017-12-09 17:04

已经隐藏13层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:47 已有11次举报

支持(0)  |  

反对(8)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:47 已有11次举报

支持(0)  |  

反对(8)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有0次举报

支持(3)  |  

反对(1)  |  

举报  |  

回复

109#

游客  2017-12-09 12:21

已经隐藏14层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:59 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:40 已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:59 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(8)  |  

举报  |  

回复

107#

超能网友教授 2017-12-09 12:15    | 

加入黑名单

已经隐藏13层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:40 已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复

106#

游客  2017-12-09 11:59

已经隐藏13层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:40 已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

105#

游客  2017-12-09 11:47

已经隐藏12层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 11:41 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有11次举报

支持(0)  |  

反对(8)  |  

举报  |  

回复

104#

游客  2017-12-09 11:41

已经隐藏12层评论 [+]超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:40 已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:40 已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有2次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复

103#

游客  2017-12-09 11:41

已经隐藏11层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

102#

超能网友教授 2017-12-09 10:40    | 

加入黑名单

已经隐藏11层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:25 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复

101#

游客  2017-12-09 10:25

已经隐藏10层评论 [+]超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-09 10:18 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复

100#

超能网友教授 2017-12-09 10:18    | 

加入黑名单

已经隐藏9层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 09:42 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复

99#

游客  2017-12-09 09:42

已经隐藏8层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-09 07:11 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复

98#

游客  2017-12-09 07:11

已经隐藏7层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:52 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

97#

游客  2017-12-09 01:48

该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复

96#

游客  2017-12-08 22:52

已经隐藏6层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复

94#

游客  2017-12-08 22:43

已经隐藏5层评论 [+]超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:58

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:58

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有0次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

93#

超能网友博士 2017-12-08 22:30    | 

加入黑名单

已经隐藏6层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 22:10 已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有0次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

92#

游客  2017-12-08 22:10

该评论年代久远,荒废失修,暂不可见。

已有0次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复

91#

游客  2017-12-08 22:10

已经隐藏5层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:14 已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(0)  |  

反对(1)  |  

举报  |  

回复

90#

游客  2017-12-08 21:18

该评论年代久远,荒废失修,暂不可见。

已有0次举报

支持(3)  |  

反对(0)  |  

举报  |  

回复

89#

游客  2017-12-08 19:25

游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 19:03

支持(0)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(2)  |  

反对(3)  |  

举报  |  

回复

88#

游客  2017-12-08 19:14

已经隐藏4层评论 [+]游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

超能网友 教授本评论因举报过多被折叠 [+]

该评论年代久远,荒废失修,暂不可见。 2017-12-08 13:44 已有22次举报

支持(22)  |  

反对(24)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 16:28 已有2次举报

支持(2)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:30 已有1次举报

支持(0)  |  

反对(0)  |  

举报  |  

回复 超能网友 教授该评论年代久远,荒废失修,暂不可见。 2017-12-08 17:56 已有1次举报

支持(1)  |  

反对(1)  |  

举报  |  

回复 游客该评论年代久远,荒废失修,暂不可见。 2017-12-08 18:32 已有1次举报

支持(1)  |  

反对(0)  |  

举报  |  

回复 该评论年代久远,荒废失修,暂不可见。

已有1次举报

支持(4)  |  

反对(2)  |  

举报  |  

回复

87#

加载更多评论

请 登录 后发表评论,若无帐号可 快速注册 ,请留意

评论奖罚说明 。

关于我们   |   商务合作   |   网站地图   |   人才招聘

©

2024  广州超能网络科技有限公司   |   粤ICP备 12083257号 粤公网安备 44010602001378号

登 录

注 册

评 测

视 频

产 品

快 讯

精 选

课 堂