DNN

编辑:上面网互动百科 时间:2019-11-18 14:18:38
编辑 锁定
本词条缺少名片图,补充相关内容使词条更完整,还能快速升级,赶紧来编辑吧!
Dotnetnuke是一个免费、开源、可扩展、几近完美的内容管理系统。可广泛应用于商务网站、企业内网(Intranet)和外网网站、在线内容发布网站;在化学上DNN表示二硝基萘,该物品主要用于制造廉价炸药;深度神经网络算法,近几年在工业界和学术界新型的一个机器学习领域的流行话题。
外文名
Dotnetnuke
缩    写
DNN
类    型
内容管理系统
建立平台
微软ASP.NET
在化学上表示
二硝基萘

DNN什么是Dotnetnuke

编辑
Dotnetnuke是建立在微软ASP.NET平台之上的一套Web应用框架Dotnetnuke是微软第一次向开源说”Yes”的里程碑。Dotnetnuke 是门户网站的未来。Dotnetnuke的特色
通用性――――几乎可以用来构建任何Web应用:商务网站,企业内网/外网,在线内容发布。
用户友好性―――—其设计考虑非常周全,借助站点向导,无处不在的帮助图标等等,用户能够很容易的控制项目的各个方面。
多网站支持――――套程序部署就可以支持多个网站。每个网站都有各自的管理员和独特页面布局。
技术支持――――Dotnetnuke有一个核心开发团队和国际化的支持社团。DNN的用户组、论坛、资源网站以及专注与DNN技术的很多公司,全方位的提供支持和帮助。
安装简单――――从Dotnetnuke.com (英文版) 下载软件以后,按照安装指导的步骤,只需要几分钟就可以完成。
本地化――――到目前为止已经有27个语言包,能很轻松的把您的网站转换成几乎任何语言。语言包也是可扩展的,您可以很容易的创建自己的特色语言包。
开放源代码――――DNN是免费、开放源代码项目,采用类BSD风格的授权方式。容许任何人按自己的想法,商业和非商业的使用DNN.。BSD开源协议是一个给于使用者很大自由的协议。基本上使用者可以"为所欲为",可以自由的使用,修改源代码,也可以将修改后的代码作为开源或者专有软件再发布。你只需要源代码中带有原来代码中的BSD协议
高扩展性――――DNN内建的功能已经足够构建一个非常复杂的内容管理系统。DNN提供了全新的在线式功能块扩展,无论是第三方模块还您自己开发的模块,都能随时很容易的加入到正在运行的网站中。
被广泛认同――――Dotnetnuke已经是一个商标,得到了开源社区的广泛认同和尊重。Dotnetnuke.com(英文)已经有超过60万的注册用户。

DNN二硝基萘(DNN)

编辑
式子C10H6(NO2)2,黄色或灰黄色小颗粒。纯净的没有气味,常见的工业品稍带一种特殊气味。不溶于水,溶于丙酮。由于有多种异构体,熔点不定,工业品熔点约130~155℃。二硝基萘(DNN)作为一种价廉易得的炸药,有过辉煌的历史。尤其在工业炸药中,曾是重要的敏化剂。但在TNTRDX普及后,DNN用量逐渐减少,好似已被人们遗忘。

DNN制备

由萘经硝化而得。直接硝化萘,可以得到四硝基萘,但没有实际价值。在工业上,控制硝化剂的成份,可由一段法或二段法制取DNN。一段法比较简单,较为常用。这里介绍一种简易一段法,制成的产品虽含一硝基萘及较多的其它杂质,但安定性仍然不错,可存放一年以上。

DNN原料

稀硝酸HNO3含量65%~68%),精萘(C10H8含量≥99%),浓硫酸H2SO4含量96%~98%)。精萘最好用试剂级的,绝对不能用卫生球

DNN方法

准备一盆凉水放于工作台上。在500ml容量的烧杯中加入160mL硝酸;将烧杯放入水盆中冷却并在搅拌下加入240mL硫酸。用玻璃板盖住烧杯口,待硝、硫混酸自然冷却。如果发现水温过高发烫应更换凉水。称取80克精萘,碾碎。用玻璃棒剧烈搅动混酸,使中央能形成旋涡。在剧烈搅拌的同时将萘加入酸中。控制加萘的速度,大约在5分钟内加完。加完后继续搅拌1分钟。此时可见大量黄色粒状产物浮在酸面上。停止搅拌,冷却后分离出黄色物质,用清洁的水至少冲洗5分钟,然后用清洁的水煮洗至少1次。过滤,把水份挤干,晾干得到的黄色物质为二硝萘和少量一硝基萘的混合物,熔点高于120℃。

DNN注意

操作时注意安全,加强通风。萘已被证实有毒和微弱的致癌性,切不可误食入口。用过的硝硫混酸中含有大量硫酸、硝酸和有机物,不可直接排放。建议加入等量水稀释后煮至沸腾,待其自然冷却,再用于制化肥或其它方面,有条件者应该蒸馏回收。

DNN用途

硝酸脲硝酸铵硝酸钾混合可作为工业炸药,与硝酸脲混合还能装填地雷、炸弹。如果有DNT可以与DNT混熔浇铸造块,用于炸药包等各类武器中。DNN负氧严重,和氧化剂或正氧平衡炸药混合使用,能收到较好的效果。

DNNDNN(深层神经网络)Deep Neural Networks

编辑
深度神经网络算法,近几年在工业界和学术界新型的一个机器学习领域的流行话题。DNN算法成功的将以往的识别率提高了一个显著的档次。
人工神经网络起源于上世纪40年代,第一个神经元模型是1943年McCulloch和Pitts提出的,称为threshold logic,它可以实现一些逻辑运算的功能。自此以后,神经网络的研究分化为两个方向,一个专注于生物信息处理的过程,称为生物神经网络;一个专注于工程应用,称为人工神经网络。[1] 
直到2006年深度网络(deep network)和深度学习(deep learning)概念的提出,神经网络又开始焕发一轮新的生命。深度网络,从字面上理解就是深层次的神经网络。至于为什么不沿用以前的术语“多层神经网络”,个人猜测可能是为了与以前的神经网络相区分,表示这是一个新的概念。这个名词由多伦多大学的Geoff Hinton研究组于2006年创造[3]。事实上,Hinton研究组提出的这个深度网络从结构上讲与传统的多层感知机没有什么不同,并且在做有监督学习时算法也是一样的。唯一的不同是这个网络在做有监督学习前要先做非监督学习,然后将非监督学习学到的权值当作有监督学习的初值进行训练。这个改变其实对应着一个合理的假设。我们用P(x)表示用无监督学习对网络进行预训练得到的数据的一种表示,然后用有监督学习对网络进行训练(如BP算法),得到P(Y|X),其中Y为输出(比如类别标签)。该假设认为P(X)的学习有助于P(Y|X)的学习。这种学习思路相对于单纯的有监督学习而言有助于降低过拟合的风险,因为它不仅学习了条件概率分布P(Y|X),还学习了X和Y的联合概率分布。关于预训练有助于深度学习的原因还有其他解释,其中最直接的解释是预训练将网络参数训练到一组合适的初始值,从这组初始值出发会令代价函数达到一个更低的值,但Erhan等人的实验证明并不一定是这样的。
参考资料
词条标签:
网站