大约有 3,000 项符合查询结果(耗时:0.0073秒) [XML]

https://www.tsingfun.com/it/cpp/1433.html 

使用CSplitterWnd实现拆分窗口(多视图显示) - C/C++ - 清泛网 - 专注C/C++及内核技术

...,指定窗格的初始大小    ● pContext:一般是由父窗口传递过来,包含窗口的创建信息    返回值:如果创建成功,返回非零值(TRUE),否则返回0(FALSE)。 m_wndSplitter.CreateView(0,0,RUNTIME_CLASS(CTest),CSize(190,100),pContext); 实现的关...
https://www.tsingfun.com/ilife/idea/793.html 

几个有趣的Javascript Hack - 创意 - 清泛网 - 专注C/C++及内核技术

...re no passwords in forms on this page.");})(); 访问一个带密码框的页面,然后地址栏输入以上代码,就会弹出当前密码框中的密码了,别干坏事哟~ Js hack
https://www.tsingfun.com/it/op... 

ZMQ: 基本原理 - 开源 & Github - 清泛网 - 专注C++内核技术

...相同的线路协议。 图表力争紧凑,比如任何两个节点或直接或通过一个或多个中介机构连接。 第1点很明显,故意使用单词“通道”而不是使用“连接”这一点是为了描述模型工作的实际情况,即使IP多播或UDP等无连接的底层传...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(四) - 大数据 & AI - 清泛...

...是编码code了。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。 2)通过编码器产生特征,然后训练下一层。这样逐层训练: 那上面我们就得到第一层的code,我们的重构误差最小让我们相信这个co...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(四) - 大数据 & AI - 清泛...

...是编码code了。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。 2)通过编码器产生特征,然后训练下一层。这样逐层训练: 那上面我们就得到第一层的code,我们的重构误差最小让我们相信这个co...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(四) - 大数据 & AI - 清泛...

...是编码code了。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。 2)通过编码器产生特征,然后训练下一层。这样逐层训练: 那上面我们就得到第一层的code,我们的重构误差最小让我们相信这个co...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(四) - 大数据 & AI - 清泛...

...是编码code了。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。 2)通过编码器产生特征,然后训练下一层。这样逐层训练: 那上面我们就得到第一层的code,我们的重构误差最小让我们相信这个co...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(四) - 大数据 & AI - 清泛...

...是编码code了。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。 2)通过编码器产生特征,然后训练下一层。这样逐层训练: 那上面我们就得到第一层的code,我们的重构误差最小让我们相信这个co...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(四) - 大数据 & AI - 清泛...

...是编码code了。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。 2)通过编码器产生特征,然后训练下一层。这样逐层训练: 那上面我们就得到第一层的code,我们的重构误差最小让我们相信这个co...
https://www.tsingfun.com/it/bi... 

Deep Learning(深度学习)学习笔记整理系列之(四) - 大数据 & AI - 清泛...

...是编码code了。因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。 2)通过编码器产生特征,然后训练下一层。这样逐层训练: 那上面我们就得到第一层的code,我们的重构误差最小让我们相信这个co...