Typora+Hexo工作流
你想实现本地Typora进行写作,然后丝滑的推倒你的blog网站吗?本篇blog可以帮你实现这一效果。 为什么会需要解决这个问题? 通常我们建立一个个人博客网站之后,尤其是如果你是基于Hexo建站的话,你的post全部都是基于md文件的。那么如果正好,你已经习惯了用md文件进行本地写作,那么你一定想要快速的直接把本地的md文件deploy到你的网站上。 如果你没有使用过图床,或者你专门想要把你每个md文件插入的图片放到一个专门的位置。比如说我,我就是用Typora的高级功能,指定了存图片的地点,这样你的图片即在本地,又分门别类,十分好找。 现在你再deply到你的blog网站上时,你就会遇到问题了,因为Hexo generate出来的public文件夹里的各个post文件夹里并没有相应的图片。本篇就旨在让你丝滑的将本地文件deply到你的个人blog网站。 Hexo Settings 想要实现以上的功能,首先对于每一个post,你需要有一个文件夹来存你这post里面的图片。 你需要将 post_asset_folder: false 改成 post_asset_folder:...
Reading Notes for SmartMoE
Summary Abstract & Introduction & Background and Motivation Deep neural network(DNN)现在越来越大,除了dense model,就是比较传统的model之外,越来越多的人开始关注sparsely activated model。针对dense model,之前有很多auto-parallelization的方法,但是这些方法对sparsely activated model,比如说MoE架构的模型就没那么好用了。所以他们主要做的就是实现对sparsely activated model做自动并行的分布式训练的方法。 Intro就先说一下来龙去脉,就众所周知,scaling law目前对DNN一直没有失效,所以各家基本上就是一直往上堆参数。但模型变大了就练不动了,所以就要找efficient...
Reading Notes for FasterMoE
Summary Abstract & Introduction &  Background and Challenges 前面又是简单介绍MoE,基本都一样。 这个也是training方向的,说了三个challenges:   dynamic load imbalance 在intro里,叫Dynamic expert selection,就也比较明显,就是每次选的experts不一样。   inefficient synchronous execution mode 在intro里,叫Inefficient synchronous operations,就是expert有dependency,就需要别的worker的data,要等。   congested all-to-all communication 在intro里,叫Mismatch of model design and network topology,感觉他的意思是现在的system只管摆放experts的computation...