本周学习情况
- 通过 cs224n Lectur6,学习了 Recurrent Neural Network 的基本概念和结构、backpropagation 中面临的 vanishing gradients 和 exploding gradients 问题,以及相应的解决方法(LSTM)。还学习了 LSTM 的基本思想和结构。
- 通过 cs224n Lecture7,聚焦 NLP 中的具体任务——Machine Translation,对 Statistical 方法有了基本的了解。着重学习了使用 Seq2Seq 模型进行 NMT 训练的方法。最后还过了一遍 Attention 机制的核心理念。
- 通过完成 Assignment4,实践构建了一个 NMT 模型进行训练(没有GPU资源,仅通过了本地代码测试)。
本周笔记
周赛情况
28 分钟做出两题,WA 一次,排名 1700+ 。
第二题先用暴力试试,超时。然后下意识用了线段树做,所以慢了些。
第三题本来想到用二分查找答案,但好像本题并不适用。
第四题也没能解出。
Comments NOTHING