大约有 6,400 项符合查询结果(耗时:0.0104秒) [XML]

https://www.tsingfun.com/ilife/relax/898.html 

程序员才能听得懂笑话 - 轻松一刻 - 清泛网 - 专注C/C++及内核技术

...离了。老邓接手以后,重构代码,出了个2.0版,为了开发速度,遗留了一堆BUG没处理。人们纷纷质疑:是不是核心构架太单一,双核会不会好点? 42、一程序员家水管坏了,他打电话叫来一个水管工修理。 水管工鼓捣了一...
https://www.tsingfun.com/ilife/tech/254.html 

如果携程决心战略性亏损到底,去哪儿怕是只剩一条路可走 - 资讯 - 清泛网 -...

...短期投资总价值为15亿元,这意味着,若保持如此烧钱速度,去哪儿在2015年底可能很难熬到下一个冬天。而去哪儿想要获得新资金,要么继续让百度授信,获得百度高达10%年息贷款,要么引入新投资者,而无论哪种都需...
https://www.tsingfun.com/it/tech/472.html 

CentOS 6.4下Squid代理服务器安装与配置 - 更多技术 - 清泛网 - 专注C/C++及内核技术

...页面时,Squid 把保存备份立即传给用户,使用户觉得速度相当快。Squid 可以代理HTTP、FTP、GOPHER、SSL和WAIS等协议并且Squid 可以自动地进行处理,可以根据自己需要设置Squid,使之过滤掉不想要东西。 1.1 工作流程 当代理...
https://www.tsingfun.com/ilife/tech/1166.html 

房多多:懂用户比懂互联网重要 - 资讯 - 清泛网 - 专注C/C++及内核技术

...搬到了房多多平台上,如带客看房次数、成交套数、响应速度、服务专业度等。业主和购房者可以对经纪人进行评价(好评和差评,差评需说明原因),每个环节都会产生信用和积分。这跟在淘宝上开店,几乎是一个逻辑。 要有...
https://www.tsingfun.com/it/cpp/2162.html 

Socket send函数和recv函数详解以及利用select()函数来进行指定时间阻塞 ...

...送使用允许发送者提前于接收者进行,以便在两进程速度方面,计算更容忍波动。   缓存和准备好模式中非阻塞发送有一个更有限影响。一可能一个非阻塞发送将返回,而一个阻塞发送将在数据被从发送者存储拷出...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)情况下效果并不比其它方法更优; 所以中间有大约20多年时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)情况下效果并不比其它方法更优; 所以中间有大约20多年时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)情况下效果并不比其它方法更优; 所以中间有大约20多年时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)情况下效果并不比其它方法更优; 所以中间有大约20多年时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)情况下效果并不比其它方法更优; 所以中间有大约20多年时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...