神经计算可扩展研究人员探索的摩尔定律
计算卡在车辙中。在过去50年的技术革命中提供动力的集成电路已达到其物理极限。
这种困境使计算机科学家们争相提出新的想法:使用新颖物理学构建的新设备,计算机内部单元组织的新方式,甚至是更有效地使用新系统或现有系统的算法。为了帮助协调新想法,桑迪亚国家实验室(Sandia National Laboratories)协助组织了2016年10月17日至19日举行的电气与电子工程师协会(IEEE)重新启动计算国际会议。
来自桑迪亚(Sandia)数据驱动和神经计算部门的研究人员将在会议上发表三篇论文,以突出潜在的非传统神经计算应用的广度。
“我们正在努力探索神经算法的作用范围。我们并不是试图详尽无遗,而是试图强调算法可能具有影响力的应用程序类型,” Brad Aimone说,一位计算神经科学家,是一篇论文的合著者。他补充说,从历史上看,神经计算被视为近似和模糊的。但是,桑迪亚(Sandia)研究人员的论文旨在扩展神经算法,使其具有严格的可预测性,这表明它们可能在高性能科学计算中发挥作用。
这三篇论文的标题分别为Craig Vineyard和Steve Verzi所著的“克服静态学习瓶颈-自适应神经学习的需要”。Fred Rothganger的“用动力系统进行计算”;以及William Severa,Ojas Parekh,Kris Carlson,Conrad James和Aimone的“科学计算的加标网络算法”。
不断学习的麻烦和好处
大脑在不断学习。Vineyard表示:“虽然我们确实在学校学习,但学习不会在学校结束时停止。相反,我们的大脑正在不断地通过突触修改等过程进行适应。但是,大多数机器学习算法只能学习一次并完成。”计算机科学家。
大多数所谓的机器学习算法都有一个学习阶段以及一个单独的测试和操作阶段。这确实很耗时。Vineyard说,雄心勃勃且具有挑战性的尝试开发持续学习的算法也冒着阿尔高利“学习”错误的风险。