首 页 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 尾 页

看看马云的18年,你还觉得自己人生苦逼吗!

发布者: superzhang | 发布时间:2017-12-22

我想大家都知道马云现在是互联网世界的大亨,都被认为是成功的对象,是很对创业者羡慕的对象。是每个人青年人奋斗的目标。马云创办了阿里巴巴商业帝国能做到现在的地步,经历了18年,18岁的阿里,经历了太多,当然马云在这十八年也经历了太多太多。阿里在成长,马云的梦想也不再止步于中国这么简单,阿里已经不再是一家公司那么简单了,它更远大的目标就是成为经济体。表面上看上去风光无限,成功对象,社会楷模。但是,马云过去的18年是很多人看不到的地方,有多少苦,有多少泪,有多少心酸,不为人知。突然想到一句话;"将降大任于是人也,必先苦其心志,劳其筋骨,饿其体肤,空乏其身,行拂乱其所为,所以动心忍性,曾益其所不能"我想正是在各种困难、各种打击的伴随下成就了今天的马云,也成全了不可一世的阿里巴巴商业帝国。

看看马云的18年,你还觉得自己人生苦逼吗!

一、吃泡面的日子是开始

马云在创业之前,并不是投身于互联网的,他是杭州师范大学的一个老师,在他坚信互联网的未来在中国的前景的时候,他就已经有想法了,召集了自己的好朋友在一家很小的房子里开始了自己的创业之

想读更多 ->

马云:信用时代已经来临!支付宝放大招,芝麻分600以上大福利!

发布者: superzhang | 发布时间:2017-12-22

近日,支付宝放大招,10亿红包任意领,很多小伙伴都疯狂了,阿里巴巴一度成为世界顶尖的互联网公司,市值超过4000亿美金,而马云打造的无现金也成为大家关注的焦点,对于经常不带现金的人来说,支付宝和微信成为了日常出行的首要备用工具,大家都对支付宝情有独钟,对芝麻分也是几乎爱到疯狂的地步,为何如此痴迷呢?今天道哥和大家来说说,支付宝的芝麻分600分到底能做什么?能给到我们普通哪些好处,它能否像专业人士说的那样解决我们的吃穿住行,甚至金融方面。

马云:信用时代已经来临!支付宝放大招,芝麻分600以上大福利!

芝麻信用消灭押金,全民共享经济福利时代来临!

据悉,11月22日下午,芝麻信用官方微博宣布,芝麻信用将联合推动中国进入信用免押时代,在初期芝麻信用将投入10亿元,引入保险、运营鼓励等机制,帮商家用比收押金更好的方式做生意。

随后得到了ofo小黄车、神州租车等多家企业的赞同,也得到各大网友们的大力支持。这也将意味着,前期在共享经济所需的650分芝麻信用门槛将大大降低,直到用户都能享受免押服务。同时,芝麻信用承担商户与

想读更多 ->

许小年:关于互联网与创新的几点思考(二)|正略名家

发布者: superzhang | 发布时间:2017-12-22

许小年:关于互联网与创新的几点思考(二)|正略名家

赵民微分享文学/评论/经济/故事/生活关注

作者 | 许小年

来源 | 经济学原理

管制是创新的大敌

我们不妨看看沃尔玛,沃尔玛做网上销售做了十几年,投资建自己的网站和电商仓库,沃尔玛在中国收购了仅次于京东的1号店,要发展他自己的网上销售。同时沃尔玛在调整自己的店面结构,下沉,逐渐减少大型的门店,增加中小型的社区店,这些社区店将来就是它电商的提货点和送货点。

为什么亚马逊在美国无法撼动沃尔玛的统治地位?为什么电商在日本几乎没有生存的空间?日本的电商如果想干的话,可能干不过遍地开花的便利店,便利店过两条街就是一个,电商无法和它们竞争。

中国的电商发展快,一个原因是传统零售业实在太落后。落后也不必紧张,你也去上线,和电商过个招,谁赢谁输还不知道呢。你要分析电商优势,也要分析自己的优势,你要知道电商的劣势,也要知道自己的劣势,以己之长攻人之短,你就可以生存和发展。

所以沃尔玛现在一方面是去做电商,另一方面改造传统业态。他这样搞起来,亚

想读更多 ->

分布式本质论:高吞吐、高可用、可扩展 (2)

发布者: superzhang | 发布时间:2017-12-22

分布式本质论:高吞吐、高可用、可扩展 ( 1)

分布式系统在可管理性上造成的问题

分布式系统并不是简单的把一堆服务器一起运行起来就能满足需求的。对比单机或少量服务器的集群,有一些特别需要解决的问题等待着我们。

硬件故障率

所谓分布式系统,肯定就不是只有一台服务器。假设一台服务器的可靠运行时间是1%,那么当你有100台服务器的时候,那就几乎总有一台是在故障的。虽然这个比方不一定很准确,但是,当你的系统所涉及的硬件越来越多,硬件的故障也会从偶然事件变成一个必然事件。一般我们在写功能代码的时候,是不会考虑到硬件故障的时候应该怎么办的。而如果在编写分布式系统的时候,就一定需要面对这个问题了。否则,很可能只有一台服务器出故障,整个数百台服务器的集群都工作不正常了。

除了服务器自己的内存、硬盘等故障,服务器之间的网络线路故障更加常见。而且这种故障还有可能是偶发的,或者是会自动恢复的。面对这种问题,如果只是简单的把“出

想读更多 ->

被 TensorFlowLite 刷屏了吧,偏要再发一遍

发布者: superzhang | 发布时间:2017-12-22

翻译 | 刘畅Troy

谷歌今天终于发布了TensorFlow Lite 的开发者预览!该项目是在5月份的I/O开发者大会上宣布的,据Google网站描述,对移动和嵌入式设备来说,TensorFlow是一种轻量级的解决方案,支持多平台运行,从机架式服务器到微小的物联网设备。近几年来,由于其作为机器学习模型的使用已成倍增长,所以移动设备和嵌入式设备也出现了部署需求。Tensorflow Lite使机器学习模型设备能够实现低延迟的推理。

在本文中,Google展示了TensorFlow Lite的框架构成以及一些功能特性。

TensorFlow Lite设计初衷 轻量级:允许在具有很小的二进制大小和快速初始化/启动的机器学习模型设备上进行推理。 跨平台:能够运行在许多不同的平台上,首先支持Android和iOS平台 快速:针对移动设备进行了优化,包括显著提高模型加载时间和支持硬件加速

现在越来越多的移动设备集成了定制硬件来更有效地处理机器学习带来的工作负载。TensorFlow Lite支持Android神经网络API(Android Neural Networks API)利用这些新的加速器硬件。当加速器硬件不可用的时候,TensorFlow Lite会执行优化CPU,这可以确保你的模型仍然可以很快的运行在一个大的

想读更多 ->

TensorFlow 的 c ++ 实践及各种坑!

发布者: superzhang | 发布时间:2017-12-22

前言

Tensorflow当前官网仅包含python、C、Java、Go的发布包,并无C++ release包,并且tensorflow官网也注明了并不保证除python以外库的稳定性,在功能方面python也是最完善的。众所周知,python在开发效率、易用性上有着巨大的优势,但作为一个解释性语言,在性能方面还是存在比较大的缺陷,在各类AI服务化过程中,采用python作为模型快速构建工具,使用高级语言(如C++,java)作为服务化程序实现是大势所趋。本文重点介绍tensorflow C++服务化过程中实现方式及遇到的各种问题。

实现方案

对于tensorflow c++库的使用,有两种方法:

(1) 最佳方式当然是直接用C++构建graph,但是当前c++tensorflow库并不像python api那样full-featured。可参照builds a small graph in c++ here, C++ tensorflow api中还包含cpu和gpu的数字内核实现的类,可用以添加新的op。可参照https://www.tensorflow.org/extend/adding_an_op

想读更多 ->

Fis3 构建迁移 Webpack 之路

发布者: superzhang | 发布时间:2017-12-22

本文作者:ivweb 程柳锋 原文出处:IVWEB社区 未经同意,禁止转载

Webpack从2015年9月第一个版本横空初始至今已逾2载。它的出现,颠覆了一大批主流构建如Ant、Grunt和Gulp等等。腾讯NOW直播IVWEB团队之前一直采用Fis构建,本篇文章主要介绍从Fis迁移到webpack遇到的问题和背后的黑科技,内容包括inline-resource、多页面构建、资源压缩、文件hash、文件目录规则等等。

为什么要迁移至webpack?

有两个层面的原因:

首先webpack的社区生态火爆,插件齐全并且维护更新的很频繁,遇到了问题,比较容易解决。 webpack里面有happypack多实例构建方案、code spliting按需加载文件等方案, 可以有效的进行打包构建持续优化, 这些在Fis里面是缺少的。 区分构建的开发or生产环境? "scripts": { "dev": "cross-env NODE_ENV=dev nodemon --watch webpack.config.js --exec \"webpack-dev-server --config webpack.config.js --env development\" --progress --colors",

想读更多 ->

宋宝华:火焰图 全局视野的 Linux 性能剖析

发布者: superzhang | 发布时间:2017-12-22

作者简介:宋宝华,他有10几年的Linux开发经验。他长期在大型企业担任一线工程师和系统架构师,编写大量的Linux代码,并负责在gerrit上review其他同事的代码。Barry Song是Linux的活跃开发者,是某些内核版本的最活跃开发者之一(如https://lwn.net/Articles/395961/https://lwn.net/Articles/429912/ ),也曾是一ARM SoC系列在Linux mainline的maintainer。

他也是china-pub等据销售评估的2008年度“十大畅销经典”,“十佳原创精品”图书《Linux设备驱动开发详解》的作者和《Essential Linux Device Driver》的译者。同时书写了很多技术文章,是51CTO 2012年度“十大杰出IT博客”得主及51CTO、CSDN的专家博主。他也热衷于开源项目,正在开发LEP(Linux Easy Profiling,http://www.linuxep.com

想读更多 ->

学习笔记DL005:线性相关、生成子空间,范数,特殊类型矩阵、向量

发布者: superzhang | 发布时间:2017-12-22

线性相关、生成子空间。

逆矩阵A⁽-1⁾存在,Ax=b 每个向量b恰好存在一个解。方程组,向量b某些值,可能不存在解,或者存在无限多个解。x、y是方程组的解,z=αx+(1-α),α取任意实数。

A列向量看作从原点(origin,元素都是零的向量)出发的不同方向,确定有多少种方法到达向量b。向量x每个元素表示沿着方向走多远。xi表示沿第i个向量方向走多远。Ax=sumixiA:,i。线性组合(linear combination)。一组向量线性组合,每个向量乘以对应标量系数的和。sumiciv⁽i⁾。一组向量的生成子空间(span)是原始向量线性组合后能抵达的点的集合。确定Ax=b是否有解,相当于确定向量b是否在A列向量的生成子空间中。A的列空间(column space)或A的值域(range)。方程Ax=b对任意向量b∈ℝ⁽m⁾都存在解,要求A列空间构成整个ℝ⁽m⁾。ℝ⁽m⁾点不在A列空间,对应b使方程没有解。矩阵A列空间是整个ℝ⁽m⁾的要求,A至少有m列,n>=m。否则,A列空间维数小于m。

列向量冗余为线性相关(linear dependence)。一组向量任意一个向量都不能表示成其他向量的线性组合,线性无关(linearly independent)。某个向量是一组向量中某些向量的线性组合,这个向量加

想读更多 ->

学习笔记DL003:神经网络第二、三次浪潮,数据量、模型规模,精度、复杂度,对现实世界冲击

发布者: superzhang | 发布时间:2017-12-22

神经科学,依靠单一深度学习算法解决不同任务。视觉信号传送到听觉区域,大脑听学习处理区域学会“看”(Von Melchner et al., 2000)。计算单元互相作用变智能。新认知机(Fukushima,1980),哺乳动物视觉系统结构,处理图片强大模型架构,现代卷积网络基础(LeCun et al., 1998c)。神经网络基于整流线性单元(rectified linear unit)神经单元模型。原始认知机(Fukushima,1975)更复杂。简化现代版,Nair and Hinton(2010b)和Glorot et al.(2011a) 神经科学,Jarrett et al.(2009a) 面向工程。真实神经元计算与现代整流线性单元不同函数,没有提升性能。对神经科学生物学习没有足够了解,不能为训练架构学习算法提供借鉴。现代深度学习从应用数学基本内容(线性代数、概率论、信息论、数值优化)获取灵感。计算神经科学,大脑在算法层面工作,独立于深度学习。深度学习领域关注构建计算机系统,解决智能解决任务。计算机器神经科学关注构建大脑真实工作、精确模型。

20世纪80年代,神经网络第二次浪潮。联结主义(connectionism)或并行分布处理(parallel distributed procession)(Rumelhart et al.,

想读更多 ->