网络结构
该论文介绍了一种深度LSTM神经网络,包括8个编码和解码层,实现端到端的训练过程 。这套系统可以拆分为三部分:编码RNN,解码RNN和注意力模块 。从宏观来说,编码器将输入的句子表示为向量的形式,解码器生成输出表示,注意力模块则是在解码阶段告诉解码器该聚焦哪部分内容(这就是利用句子整体语境的思想来源):
文章插图
论文的剩余部分主要讨论大规模部署这套系统所面临的挑战,包括计算资源消耗、延迟,以及高并发量等等 。
总结
笔者认为,今后深度学习会在客户服务机器人、机器翻译以及复杂的问答系统发挥作用 。特别感谢 以及斯坦福课程老师提供的精彩课堂和幻灯片 。
- C语言学习笔记——字符串操作
- 体育考研知识分享
- Git总结和使用教程
- 2 深度学习入门教程:使用预训练模型来文字生成图片TextToImageGen
- 世博园在哪里 江苏世博园在哪里
- 覆膜板 覆膜板用在什么地方
- [可解释机器学习]Task01:预备知识学习
- neutron
- 自智网络:网络自身的数字化转型
- sau交流学习社区—vue总结:使用vue的computed属性实现监控变量变化