README
这个博客的诞生于 2021-10-16,原站点在 blog-hexo,因为静态文件都已经编译好了,就没有再进行修改了,后面的迁移应该会陆续完成。 原因是我 sb 操作了,原 npm 环境配不回来了,正好之前装了 Hugo,这个博客的部署就是由 Hugo + GitHub Action 完成的了 ...
这个博客的诞生于 2021-10-16,原站点在 blog-hexo,因为静态文件都已经编译好了,就没有再进行修改了,后面的迁移应该会陆续完成。 原因是我 sb 操作了,原 npm 环境配不回来了,正好之前装了 Hugo,这个博客的部署就是由 Hugo + GitHub Action 完成的了 ...
0x00 写在前面 难道今年我可以按时发年度总结? 如果去年的关键词是“扫街”和“首映”,那么我想今年的关键词就是“酒精”,“自由”和“焦虑”。 0x01 酒精 今年开始,可能是 3-5 月吧,开始喝酒,喝了很多酒,在酒上的支出也不小,从在工位喝点 whiskey,到自己买了 tequila,然后去鸡尾酒吧、精酿酒吧…最后还是觉得精酿酒吧,因为一个是精酿的口感风味比较丰富,而鸡尾酒很多店都是那种常见的,特调往往也不一定符合口感,也不能试饮,所以还是会更喜欢精酿一些。而且鸡尾酒的度数吧,一言难尽,有几次很明显感觉就是在喝饮料,甚至感觉跟在喝水啤差不多…这基酒加多少纯看良心了,精酿都是自进的酒厂的酒桶,掺不了假。另外一点,我觉得主要的区别是,鸡尾酒吧大多都是几个人约好去聊天,然后几个人做一个桌,而精酿酒吧的氛围就稍微轻松一些,座位比较近,然后度数也不高,可以搭话聊天,就比较不错。 ...
书评发在豆瓣了,不过再在这里发一下吧,也好久没更新博客了。 整本书由于是采访内容,所以观点非常主观,倒也没什么不好,内容稍微有些宽泛了,但我很喜欢,就像是单元剧,每一节定一个主题,剩下的就是自由发挥了,没有任何形式上、方向上的约束。当然因为是采访稿,所以还是有一定引导性的。 ...
0. 没想到今天居然也还挺开心的呀! 简单记一下吧,一会还想工作一下,毕竟现在还一点都不困呢。 1. 今早起来就看到 哈哈 让华裔给她投票,那只能 哈哈 了,她认识到的时间有点晚,已经没人信了,哈哈。 ...
1. 终于把 hugo 版本升级到了最新的版本,之前一直觉得麻烦,现在看来好像并不是,随便改改几个变量就好了。 我也把 GitHub 主页的 douban 和 blog 最近动态去掉了,最近可能就在 blog 发发牢骚了。不喜欢在国内的平台,douban 啊 weibo 啊 xiaohongshu 啊 zhihu 啊,都有自己的群体。一些国际的社交软件反而找不到朋友,那不如自己的数据都自己管,或许 blog 还是我目前最喜欢的方式了。 ...
写在前面 众所周知,TikTok 会锁区,在国内是无法正常使用的,好早前就想上 TikTok 耍耍,一直也没成功。 今天逛 GitHub 的时候看到这个方法,但是项目 README 写的很不全,所以笔者就写了这篇文章来记录一下。 ...
Hi, 好久不见。今天是大年初三,新年快乐! 一直很想记录一下崭新的 2023,想了很多,但又觉得似乎没什么值得记下的,不过这么久没写博客了,还是随便写点什么吧。 ...
0x00 Preface 本文着眼于分布式机器学习中的效率分析,在分布式机器学习中,efficiency 通常指的是效率,即在一定的时间内,算法能够达到的最优解的质量,或者是需要得到一定的质量时,算法所需要的时间,参考1。 ...
0x00 Preface 本文着眼于分布式机器学习中的收敛性分析,作为第四部分,主要介绍了分布式学习中的收敛性证明,参考主要还是1。同时我们把假设拓展到分布式的 setting 下。 Gradient Unbiased Estimate Assumption $$ \mathbb{E}[g(w;\xi)] = \nabla f(w) $$ Gradient Bounded Variance Assumption $$ \mathrm {Var}(\nabla f(w;\xi)) \leq \sigma^2 $$ 由 $\frac{1}{m} \sum_{i=1}^{m} g\left(w, \xi_{i}\right)$ 为 $\nabla f(w)$ 的可得 ...
0x00 Preface 本文着眼于深度学习中的收敛性分析,作为第三部分,主要介绍了深度学习中随机梯度下降的收敛性证明1。相较于上一篇 (Part2) 的梯度下降,随机梯度下降的收敛性证明更加复杂,因为随机梯度下降的梯度是随机的,因此需要引入一些随机变量和假设,一些关于随机梯度下降的定义已经在 Part1 中进行了说明。 ...