Deep Learning for Pixel Art
因为内容确实不过,搜遍了全网,来做 Deep Learning for Pixel Art 的工作也没多少,肯定是实在是没有市场了吧 hhhh。 先说 GitHub 上一堆标着 pixel-art-generator 或者 image-to-pixel 的,前者大多是随机生成的,无意义的像素块,后者大多是拿 OpenCV 或者什么其他的图像处理的库 resize 一下就完了,最多能给你加个 filter 就不错。 ...
因为内容确实不过,搜遍了全网,来做 Deep Learning for Pixel Art 的工作也没多少,肯定是实在是没有市场了吧 hhhh。 先说 GitHub 上一堆标着 pixel-art-generator 或者 image-to-pixel 的,前者大多是随机生成的,无意义的像素块,后者大多是拿 OpenCV 或者什么其他的图像处理的库 resize 一下就完了,最多能给你加个 filter 就不错。 ...
起因是我看到这个名课评价网有一个评论需求,之前用 giscus,所以简单看了一下 mkdocs 的文档就顺手提了个 pr 加了评论系统。有一个想法就是海南大学建一个这样的库,本着互联网开放共享的原则,来共享课程资料。 ...
Preface 今天看了3b1b的线性代数本质,有了很多新的理解,也解释了很多我之前没有想明白的地方(准确的说是为了应付考试死记硬背住的公式),迫不及待的想要写下这篇文章。这里用到的都是一些几何的直观理解,并不涉及到数理证明。 Knowledge 矩阵乘法 先记录一下里面提到的一些观点,首先向量这个没什么好说的,用向量的变换,引出了矩阵乘法。向量的变换其实也是坐标系的变换,也就是所谓的 linear transform。考虑对一个向量 $\overrightarrow{v}=[x\hat{i}, y\hat{j}]^{T}$ ,施加一个变换 $A=\begin{bmatrix}a & c\\ b & d\end{bmatrix}$,$\hat{i},\hat{j}$ 是基向量,作用在 $\hat{i}$ 上的变换是 $\begin{bmatrix}a\\b\end{bmatrix}$ ,作用在 $\hat{j}$ 上的变换是 $\begin{bmatrix}c\\d\end{bmatrix}$ 。 变换后的坐标是 $\begin{bmatrix}a & c\\ b & d\end{bmatrix}\begin{bmatrix}x\\ y\end{bmatrix}=x\begin{bmatrix}a\\ b\end{bmatrix}+y\begin{bmatrix}c\\ d\end{bmatrix}=\begin{bmatrix}ax+cy\\bx+dy\end{bmatrix}$ 我的矩阵乘法终于不用再记行列顺序了! ...
来混混思路,A 题一看就不太可做,物理题;B 题看起来还挺简单的,但是没有细看;C 题好像也不是很难 所以就主要写写 C 题的思路了,因为毕竟不是自己实际去做,可能会有些细节问题并未考虑完全,仅提供一种可能可行的方案 ...