前阵子写了一些关于Transformer架构以及注意力机制的东西,写的时候觉得有些概念似乎可以换一个角度来思考与理解,于是就有了这期播客。
此外,最后还记了一下最近想到的进一步压缩Encoder和Decoder的想法,也许会有点好玩的东西出来哦~
纯个人理解,嘿嘿。
【执麦人】
塔塔:理科男/IT宅/科幻写手/科普作者兼译者
【制作团队】