Meedly

  • 关注
  • 短消息
文章
0
评论
5
推荐
2
收藏
0
社区会龄
5 年
个人网站
--
个人简介
还没有输入个人简介……

评论了

  • 2016-09-20 14:55

    据说脑袋喜欢收集单质,不知道是不是跟这个有关系?

  • 2016-08-01 14:50

    Margaret Hamilton,应该算是史前程序员了吧,太空计划的软件工程主管,在历史上,通过代码将人类送到了月球-阿波罗计划 目前NASA的代码已经被放到了github上,地址如下 https://github.com/chrislgarry/Apollo-11 值得一提的是,她是一名集知性与美貌一体的女程序员,图片在此 https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcSA379pIqLwfNAvNvGtcHhek9L0Se91-n3l9clb30J6XEGoa5JyuQ

  • 2016-05-23 13:28

    建议可以每各类型可以加上Doug Lea神的java.util.concurrent下的集合类来统一进行学习,以及segment跟传统的线程安全集合区别,什么时候可以替代

  • 2015-03-27 10:19

    另外建议是不是增加技术片段的翻译,可以看下译者的技术功底?

  • 2015-03-27 10:09

    我选择译者5,以下仅代表个人感受 【译者一】有几句话读起来很拗口 "因为他们能从使用Spark来扩展他们能解决的问题域中受益最多" 'Spark有一组丰富的聚焦数据的库' '容易解决超出单机能力的问题' 【译者二】 "We chose these two groups because they have the most to gain from using Spark to expand the scope of problems they can solve." 【译者三】 虽然【译者三】翻译的内容比较短小精悍,但是这句大长句我就直接放弃了,文章里这种话会造成我的一些阅读障碍,虽然这部分内容比较简单,但是碰到稍微复杂的内容,这种方式会比较麻烦. "Spark丰富的数据处理库集合(如MLlib)能够使数据科学家轻松地以其原有的统计学背景知识来解决单节点所无法解决的问题" 【译者四】 感觉部分内容是在译者个人理解的基础上增加,个人更喜欢原版内容翻译 研究数据集大小远远超过单机所能处理极限的数据问题。 2,5比较,5读起来更顺口