• avatar

    但行好事,莫问前程。

  • 公告
    代码块或公式显示不正常时,请刷新页面。


    文章

    post_img

    LLM 基础知识系列 4

    原文:深度学习中的注意力模型 注意力机制的“起源”——人类的视觉注意力机制,优先将有限的注意力分配到更需要关注的地方,以快速获取更 …

    post_img

    LLM 基础知识系列 3

    原文:通向AGI之路:大型语言模型(LLM)技术精要 潮流之巅:NLP研究范式的转换 范式转换1.0:从深度学习到两阶段预训练模型 …

    post_img

    LLM 基础知识系列 2

    原文:乘风破浪的PTM:两年来预训练模型的技术进展 在Transformer作为特征抽取器基础上,选定合适的模型结构,通过某种自监 …

    post_img

    2023 年第 18 周总结

    周赛情况 周赛的翻译水平和难度都很感人。假期为什么不搞个手速场,后悔上周没参加 orz 其他 这周本来可以完成一个 pre,结果又 …

    m-avatar