大约有 377 项符合查询结果(耗时:0.0064秒) [XML]

https://www.tsingfun.com/ilife/tech/254.html 

如果携程决心战略性亏损到底,去哪儿怕是只剩一条路可走 - 资讯 - 清泛网 -...

...短期投资总价值为15亿元,这意味着,若保持如此烧钱的速度,去哪儿在2015年底可能很难熬到下一个冬天。而去哪儿想要获得新的资金,要么继续让百度授信,获得百度高达10%年息的贷款,要么引入新的投资者,而无论哪种都需...
https://www.tsingfun.com/ilife/tech/1166.html 

房多多:懂用户比懂互联网重要 - 资讯 - 清泛网 - 专注C/C++及内核技术

...搬到了房多多平台上,如带客看房次数、成交套数、响应速度、服务专业度等。业主和购房者可以对经纪人进行评价(好评和差评,差评需说明原因),每个环节都会产生信用和积分。这跟在淘宝上开店,几乎是一个逻辑。 要有...
https://www.tsingfun.com/it/cp... 

C++ Lock-free Hazard Pointer(冒险指针) - C/C++ - 清泛网 - 专注C/C++及内核技术

... 如果使用 std::shared_ptr 实现上述逻辑,你会发现它的执行速度还要高于上述代码。原因在于这里实现的 Hazard Pointer 没有使用非对称内存屏障和线程本地存储优化。如果仔细观察,可以发现 Acquire 函数中使用顺序一致性内部屏障 p...
https://www.tsingfun.com/it/cpp/2162.html 

Socket send函数和recv函数详解以及利用select()函数来进行指定时间的阻塞 ...

...送的使用允许发送者提前于接收者进行,以便在两进程的速度方面,计算更容忍波动。   缓存和准备好模式中的非阻塞发送有一个更有限的影响。一可能一个非阻塞发送将返回,而一个阻塞发送将在数据被从发送者存储拷出...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优; 所以中间有大约20多年的时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优; 所以中间有大约20多年的时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优; 所以中间有大约20多年的时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优; 所以中间有大约20多年的时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优; 所以中间有大约20多年的时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(三) - 大数据 & AI - 清泛...

...易过拟合,参数比较难tune,而且需要不少trick; 2)训练速度比较慢,在层次比较少(小于等于3)的情况下效果并不比其它方法更优; 所以中间有大约20多年的时间,神经网络被关注很少,这段时间基本上是SVM和boosting算...